Inteligencia artificial: la fina línea entre la innovación y sus peligros

No es el cuento de “Pedro y el lobo”. No es un simulacro. Las herramientas y sistemas basados en inteligencia artificial (IA) avanzan a un ritmo tan acelerado que ya transforman operaciones y el mercado laboral, al tiempo que acaparan la atención del capital privado con más de $161,000 millones invertidos entre 2021 y 2022.

Y, al considerar la rama de la inteligencia artificial generativa (IAG), en la cual se basa el popular ChatGPT, tres líderes en la industria tecnológica concordaron en entrevistas separadas que esta ola de innovación trae consigo enorme potencial, serios peligros y preguntas para las que nadie aún tiene respuestas.

“El mundo de los bits versus el de los átomos se mueve mucho más rápido. El ritmo de lanzamientos de mejoras que está pasando en IA es algo nunca antes visto”, aseveró Emmanuel Oquendo, cofundador y principal ejecutivo de la empresa nativa de IA BrainHi. “Lo más cercano a esto fue la llegada de los smartphones que, con el AppStore, creó una plataforma para la creación de un montón de compañías”.

Entretanto, Miguel Ríos, ejecutivo tecnológico boricua que inició su carrera enTwitter y hoy es el líder de ingeniería en la plataforma de tecnología financiera (fintech) Brex, planteó que “como ha explotado esto en cuestión de meses, en unos años van a tener tecnología que no vas a saber lo que es real y lo que no lo es”.

Es muy interesante para quienes estamos en este campo, pero mete miedo”, reconoció Ríos.

Por su parte, Carlos Meléndez, cofundador y jefe de operaciones de la empresa Wovenware, comparó la coyuntura con “el problema de la pólvora: puede ser algo malo o superbueno, depende de para qué se use”.

IAG es el término para abarcar las técnicas y algoritmos de IA que hacen posible que las máquinas creen textos, imágenes, audios y videos originales y creativos, a partir de la petición o descripción que le pide un usuario humano.

El caso ChatGPT

Mientras, ChatGPT es un servicio de asistente virtual (o chatbot) que genera respuestas a las preguntas que le escriba un usuario sobre casi cualquier tema, desde básico hasta especializado, y en el formato que se le pida, desde texto regular hasta poesía o al estilo de artistas en particular. Basado en el modelo de lenguaje bautizado GPT-3.5 y nutrido con información recopilada de internet hasta 2021, la empresa OpenAI lo lanzó a prueba pública en noviembre de 2022. Para febrero pasado, había superado los 100 millones de usuarios.

Entonces, el 14 de marzo de 2023, OpenAI presentó a la comunidad tecnológica el modelo sucesor GPT-4. Esta vez, no es solo de lenguaje. Es multimodal, lo cual implica que puede recibir y producir palabras, imágenes, código y otros formatos, dependiendo de qué entre el usuario y qué le solicite crear.

En la demostración transmitida en vivo por Youtube, Greg Brockman, presidente y cofundador de OpenAI, presentó cómo a GPT-4 se le puede subir una imagen con un bosquejo en manuscrito y luego darle instrucciones básicas para que genere un sitio web funcional a partir de esa imagen. También se le puede nutrir con documentación de hasta 25,000 palabras o enlaces a internet y luego pedirle que ejecute tareas como analizar, resumir o hacer cálculos.

GPT-4 Es tan poderoso que OpenAI indicó que su nuevo modelo es capaz de colocarse en el 10% de las mejores notas de la principal reválida que toman los abogados en Estados Unidos, entre decenas de otros exámenes estandarizados.

En uno concreto, Brockman mostró como GPT-4 calculó bien la deducción que un matrimonio de contribuyentes de Estados Unidos podría reclamar en un año específico, tras procesar cerca de 14 páginas del Código de Rentas Internas federal.

“Para ser sincero, la primera vez que traté de hacerlo por mí mismo, no pude resolverlo”, confesó sobre el ejercicio que, según dijo, implicó leer y releer durante media hora el mismo fragmento que le compartió a GPT-4.

“Solo cuando le pedí al modelo que explicara su razonamiento y lo seguí fue que pude decir ‘ah, ahora comprendo’ . Pienso que ahí yace el poder de este sistema: No es perfecto, como tampoco lo eres tú. Y en conjunto, es una herramienta de amplificación que te permite alcanzar otro nivel”, sentenció Brockman.

Abierto a pruebas para los suscriptores con paga del servicio, se espera que en el futuro cercano se abra para pruebas públicas al igual que OpenAI hizo con ChatGPT.

Impacto en el lugar de trabajo

Sobre las implicaciones de la IAG en el futuro cercano, especialmente laboral, Oquendo aportó que “va a traer cambios radicales. Todos deben estar al menos enterados y pensar cuáles son las implicaciones para sus roles en particular”.

A su vez, observó que hasta la fecha los cambios han llevado una ruta contraria a la que futuristas pronosticaron hace 10 años: “Decían que IA iba a reemplazar a los ‘blue collar’ (obreros) primero, luego a los empleados de cuello blanco y luego a los creativos, pero lo interesante es que está yendo de forma totalmente opuesta”.

“En las artes visuales hay mucha controversia en términos de propiedad intelectual, porque los modelos grandes están creando bien rápido lo que un ser humano le toma crear mucho más tiempo. Pero en la práctica, ¿es arte o no lo es?”, planteó Ríos. Mientras, en negocios de mercadeo y contenido digitales, observó que el IAG se levanta como una herramienta crucial para facilitar, agilizar y abaratar costos.

Las industrias creativas, y en eso incluyo el software, tendrán una disrupción completa”, coincidió por su lado Meléndez. Mencionó que hace unos años ya 20% del código de Google se generaba de forma automática. “Ahora con los generativos, eso está literalmente a otro nivel”.

Como instancia concreta, Oquendo mencionó a Copilot, el asistente de programación en el repositorio de código GitHub, propiedad de Microsoft.

Con este asistente, la desarrolladora puede escribir peticiones en lenguaje natural y Copilot las convierte en sugerencias de líneas de código, según el lenguaje de programación que se esté utilizando. A medida que la usuaria entre más peticiones o líneas de código, Copilot va a aprendiendo para ofrecer sugerencias más alineadas con el proyecto.

Útil para la medicina y las leyes

En cuanto a otros casos de uso, Meléndez proyectó que la IAG “puede atacar problemas como el de los doctores con la gran cantidad de investigaciones que sale todos los años y que tienen que leer para mantenerse a la vanguardia”.

“Con una tecnología de IAG, como la de ChatGPT, uno podría argumentar que la puede resumir y los puede ayudar en la búsqueda cuando tienen una consulta específica de algo”, expuso el ejecutivo de Wovenware, que el año pasado se convirtió en una subsidiaria del gigante aeroespacial Maxar.

Reconoció que la herramienta también puede servir también a abogados que podrían depender menos o en lo absoluto de personal paralegal para hacer las investigaciones jurídicas. También destacó su aplicabilidad a casi cualquier operación que requiere producir documentación en alto volumen y para objetivos ya delineados.

Por su parte, Oquendo resaltó que la disponibilidad de modelos de IAG con código abierto o de empresas como Google, IBM y Microsoft están abriendo “una gran oportunidad para ajustar, fine tune, esos algoritmos más amplios y aplicarlos a una industria en particular”.

“Nos van a poner en una posición de ser mucho más productivos a los humanos. Tengo una visión bastante optimista”, expresó Oquendo, cuya empresa se enfoca en aplicar IA a los canales de servicio de la industria de la salud.

Mientras, Meléndez se cuestionó si “todo va a llevar a quién va a crear el conocimiento del futuro. ¿Lo creamos los humanos o el AI por nosotros?”

“En Wovenware, siempre hemos hablado de IA como una herramienta para aumentar las capacidades humanas, no de cómo nos reemplazamos. Las herramientas que hacemos siempre tienen a alguien en el proceso para verificar y asegurar. Mi preocupación es que no sea así en el futuro”, reflexionó.

Y, desde el punto de vista de negocio, Meléndez advirtió que “como el API (el interfaz que permite desarrollar aplicaciones ligadas a ChatGPT) está público y todo el mundo lo va a usar, casi está creando un poco de FOMO (del inglés “fear of missing out”) a las compañías, cuando realmente la tecnología no está lista para las masas”.

El lado oscuro

Entretanto, Ríos – quien dentro de Twitter observó de primera mano cómo malos actores y gobiernos pueden explotar la tecnología para desinformar y manipular – levantó bandera sobre la necesidad de que ya las autoridades y la industria adelanten la regulación en el uso de voces e imágenes. “Para mí lo más peligroso son las estafas y los ‘fakes’”, indicó en referencia a cuando se utiliza IAG para suplantar la identidad de alguien para fines siniestros.

Mencionó que ya medios han reportado el uso de IAG para estafas de secuestro en las que la víctima recibe una llamada en la que escucha la voz de su ser querido, pero en realidad no lo es, porque el mensaje de un supuesto auxilio se generó con tecnología disponible gratis en internet. También hay opciones para fabricar imágenes y videos con el rostro de otra persona, modalidad que ya se utiliza para falsificar y videos pornográficos con las caras de celebridades.

Mientras, Meléndez indicó que “prohibiría, y he tenido conversaciones sobre esto con personas y en foros digitales, cualquier AI que tenga como razón manipular a una persona a que haga algo”. También urgió a que, consultado con consejos de verdaderos expertos en la materia, se considere legislar para que sea obligatoria la divulgación de si algún contenido se creó con IA.

En la mirilla regulatoria

En esa línea, gobiernos, como el de Estados Unidos y la Comunidad Europea; organizaciones como World Economic Forum y gigantes tecnológicos como Google, Meta, Amazon y Microsoft han publicado guías e incluso manifiestos en favor de que las plataformas de IA se desarrollen, desplieguen y usen de forma ética, responsable y centrada en los humanos.

De forma similar, agencias federales han dejado claro que sus reglamentos y poder de fiscalización se extienden al uso de estas tecnologías en las prácticas de negocio o en las condiciones de reclutamiento y trabajo.

Por ejemplo, la Comisión Federal de Comercio (FTC, en inglés) ha emitido advertencias en contra del uso de herramientas de automatización que tienen efectos prejuiciados o discriminatorios. Esto puede redundar en mucho más que anuncios engañosos, pues pueden configurarse violaciones a leyes federales que protegen contra discriminación en la oferta de vivienda, en el empleo, en el acceso a crédito o en las prácticas de cobro, enumeró la agencia.

Puerta al discrimen

A su vez, la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) comenzó en 2021 una iniciativa “para asegurar que el uso de software, incluida la IA, el aprendizaje automático (AA) y otras tecnologías emergentes que se emplean en reclutamiento y en otras decisiones de empleo cumplan con las leyes federales de derechos civiles”.

“Mientras que los sistemas de IA pueden ofrecer nuevas oportunidades a los patronos, también tienen el potencial de discriminar”, indica la EEOC en la página web dedicada a esta iniciativa, que incluye consejos para solicitantes a empleo que, por tener discapacidades, no puedan realizar exámenes de ingreso o llenar solicitudes en ciertos formatos.

Exponencial la inversión global

Según el Observatorio de Política Pública de IA adscrito a la Organización para la Cooperación y el Desarrollo Económico (OECD, en inglés), “el valor global anual de inversiones de capital privado en firmas de IA ha crecido dramáticamente, de menos de $3,000 millones en 2012 a casi $75,000 millones en 2020″.

Y, tan solo de 2019 a 2020, el incremento fue de 20%, con 80% del total de inversión concentrado en firmas con sede en Estados Unidos y China.

Mientras, según los informes de State of AI, suscritos por los inversionistas Ian Hogarth y Nathan Benaich, la inversión privada relacionada con iniciativas de IA en empresas emergentes (startups) o establecidas ascendió a $111,400 millones en 2021. Y la firma de análisis y datos GlobalData publicó esta semana que “3,198 empresas emergentes de IA recibieron $52,100 millones en fondos, mediante 3,396 inversiones de capital privado en 2022″. Al sumar los hallazgos de ambas fuentes, IA acaparó $163,5000 millones de capital en los últimos dos años. Estas cifras no incluyen las inversiones o contrataciones gubernamentales.

As originally reported by: El Nuevo Día