El 30 de noviembre de 2022, la empresa Open AI lanzó su nuevo modelo de GPT, denominado ChatGPT 3, revolucionando no solo el mundo de la inteligencia artificial, sino, sobre todo, la accesibilidad a ella por parte del público general.
En esencia, ChatGPT es un modelo de lenguaje (LLM, por sus siglas en inglés) que te permite mantener conversaciones casi idénticas a las que tenemos con un ser humano. Una diferencia en la tecnología que utilizan los usuarios, como Alexa (Amazon), Siri (Apple) o Google Asistant, ChatGPT, nos permite mantener una conversación con mucha más naturalidad que con los dispositivos mencionados anteriormente. Por ejemplo, si lo disfrazas de lunfardo o usas palabras típicas de nuestro lenguaje, ChatGPT escucha perfectamente y no pides que le repitas nada. De hecho, no hay una «forma correcta» de pedir algo o de hacer una pregunta, basta con que se escuchó para un ser humano y ChatGPT te dará una respuesta.
Auge. Hasta ahora, ChatGPT no tiene intenciones ni tampoco eso que llamamos conciencia. Tampoco tiene emociones ni sentimientos. De forma simplificada, el funcionamiento del Chatbot es el siguiente: cuando le hace una pregunta, el modelo la descompone en partes más pequeñas (numeros) y busca en su base de conocimientos las respuestas relevantes. Utiliza técnicas de procesamiento del linguaje natural (NPL, por sus siglas en inglés) para analizar y comprender la estructura gramatical y el significado de las palabras en dicha pregunta. Luego, busque en su base de datos para encontrar información relacionada y extractos relevantes que puedan ayudar a generar una respuesta adecuada en base a una amplia diversidad de textos, artículos de notificaciones, libros, páginas web y conversaciones humanas. En última instancia, utilice una aproximación probabilística para generar las palabras que respondan a la pregunta.
Una vez hecho público, los usuarios que comenzaron a utilizar ChatGPT se multiplicaron por millones en pocas semanas, un récord que, según informó la sociedad suiza UBS, superó ampliamente a Facebook, Instagram y TikTok. A los pocos meses, este sistema, que era ya de por sí revolucionario, tuvo su siguiente versión, ChatGPT 4. El recién nacido mostró un enorme salto en relación con las capacidades de su predecesor, respecto del cual mejoró la calidad de respuestas y su exactitud.
Testimonios. Los avances exponenciales de esta inteligencia provocaron que numerosas personalidades del mundo de la tecnología y la filosofía levantaran la voz sobre los peligros que la inteligencia artificial supone para el ser humano. Elon Musk, Steve Wozniak y Yuval Harari, entre otras personalidades, publican un mapa abierto en la medida de lo posible durante el parón de los avances tecnológicos superiores a ChatGPT 4 con el fin de comprender su funcionamiento y sus alcances y evaluar los posibles riesgos de estas tecnologías para los seres humanos. Sin embargo, esto parecería poco probable de tener éxito, hay que ningún país estará dispuesto a abandonar la carrera de IA con sus rivales.
Hace algunos días, Harari, reconocido historiador y filósofo y una de las voces más escuchadas en estos tiempos, escribió un artículo en The Economist donde argumentaba la posibilidad de que tengan las IA en pocos años de hackear nuestro lenguaje, es decir, hackear los mismos cimientos civilización de nuestra. Desde definir nuestros gustos hasta qué tenemos opiniones sobrio el mundo, la IA podría dominar nuestros mentes sin que siquiera sepamos que lo está haciendo.
Sin embargo, tanto los riesgos que denuncian a Harari como los miedos que han resurgido en el último tiempo tienen un enfoque que, al menos por ahora, presenta peligros más bien lejanos. El peligro no sería tanto en la IA tomando las riendas de nuestras vidas al estilo Terminator, sino en la utilización que nosotros mismos les demos a las herramientas que nos brinda.
Vivimos en tiempos en los que las instituciones y las personas han perdido su credibilidad, sobre todo, en el ámbito político. Los candidatos extranjeros que critican el statu quo se multiplican en todo el mundo. Bolsonaro, Trump y Milei, en nuestro país, his tan solo some cases. Estos candidatos han llegado a las grandes masas por haberse apalancado en la desconfianza respecto de la política o el establecimiento por parte de la población. Hicieron del descontento su arma.
El desprestigio de las instituciones tradicionales también explica el fenómeno de Santiago Maratea. Las personas que desconfían incluso de las organizaciones sin multas de lucro están dispuestas a transferir le plata a modo de donación a Santiago porque han conseguido generar lo más difícil en estos tiempos: credibilidad alrededor de su persona.
Redes. En este contexto, las redes sociales comenzaron una gran lucha por disputarse la verdad. El rol que ocupaban antaño los medios de comunicación masivos, como el diario o los canales de televisión de noticias, fue en parte eliminado por las redes sociales como Twitter y WhatsApp. La difusión de noticias falsas ha vuelto el nuevo brazo contra los rivales políticos. La difamación, mucho más rápida y eficaz que la verdad, está transformando la forma de hacer política en el mundo. Candado de mensajes conspirativos inundan las casillas de WhatsApp tratando de construir relatos sobre tal o cual persona. Twitter, bajo su nuevo dueño, Elon Musk, ser el nuevo baluarte de la libertad, pero corre el riesgo de convertidor en el mayor difusor de noticias falsas.
Esta tendencia, que ya comenzó a mostrar sus primeros riesgos, se ve potenciada por la capacidad de la IA de crear imágenes, textos y voces idénticas a las de personas reales. Al final del día, las imágenes falsas de Donald Trump dejaron de mostrar la increíble habilidad de Midjourney, una habilidad de IA para crear imágenes, para crear un producto que parezca verídico.
En esta línea, Geoffrey Hinton, uno de los pioneros de la IA, aconsejó, luego de renunciar a su puesto en Google, sur la capacidad de la IA de crear imágenes, videos y textos y cómo esto hace peligrar el discernimiento de qué es verdad y qué no lo es.
La accesibilidad que tenemos a la IA hace que estas herramientas de gran capacidad creadora se conviertan en un arma para cualquiera que sepa usarlas. Solo faltará pedirles el relato que queremos contar o la mentira que vamos a difundir y tendermos toda una narrativa, con imágenes, textos y voces de gente que nunca ni siquiera pronunció esas palabras.
Como se mencionó anteriormente, a una institucionalidad de por sí erosionada, se le suman ahora herramientas más poderosas para engañar y crear narrativas.
Por otro lado, los grandes grupos que han sostenido una amplia ventaja sobrio la opinión pública siete merma ante la capacidad de viralización de ciertos individuos que lograron llegar a tener un público masivo gracias a las redes sociales. Tanto es así que el comentario de un influencer respecto de un producto como puede ser un libro tiene hoy mucho más peso que una reseña en un diario de tirada nacional. Es que la capacidad de crear narrativas no está (solamente) monopolizada por los grupos de poder tradicionales, sino que está más “democratizada”.
Narrativo. La lucha por dominar la narrativa se ve aún más virulenta. La verdad, más escurridiza.
Ante la posibilidad de un colapso total de las instituciones que hasta hoy nuestro apoyo conjunto, se ve imperativa la necesidad de generar grandes acuerdos. No solo entre países, para darle un abordaje transnacional al tema, sino entre parlamentarios, para cuidar a la ciudadanía de las nuevas herramientas que están en manos de todos nosotros.
Para eso, hay cinco cuestiones que vale la pena señalar:
Reglamentos: es necesario establecer marcos legales y éticos claros para el uso de tecnologías de generación de contenido. Las leyes y podrán prohibir o limitar el uso indebido de la generación de contenido falsificado para difamación y manipulación.
Verificación y autenticación: podrá descubrir técnicas y herramientas de verificación robusta que ayuden a identificar y autenticar contenidos generados por IA. Estas herramientas podrían permitir a los usuarios verificar la autenticidad de las voces, imágenes y textos, lo cual ayudaría a prevenir la difusión de información falsa o difamatoria.
Transparencia y divulgación: se podría incitar a los desarrolladores de IA a proporcionar información transparente sobre cómo se genera el contenido y qué técnicas se utilizan. Esto permitiría una mayor comprensión y evaluación en relación con la veracidad y autenticidad del contenido generado por IA.
Educación y alfabetización digital: Fomentar la educación y la alfabetización digital es crucial para ayudar a las personas a reconocer y comprender el potencial para manipular el contenido generado por la IA. Para crear conciencia sobria sobre estos problemas, las personas pueden ser más cuidadosas al consumir y compartir contenido y pueden tomar decisiones más informadas.
Colaboración entre industria y academia: es importante fomentar la colaboración entre la industria y la academia para abordar los desafíos éticos y técnicos asociados con la generación de contenido de IA. Trabajar juntos en la investigación y el desarrollo de tecnologías y estándares para ayudar a abordar los problemas de difamación y manipulación.
La historia nos ha demostrado que los avances tecnológicos llegan más rápido que nuestra capacidad de reacción ante ellos. Con el poder nuclear, hicieron falta Hiroshima y Nagasaki para escuchar que su capacidad destructiva requería una regulación a nivel mundial. ¿Llegaremos a tiempo para dar respuesta a los peligros que los avances de IA presentan? Una vez más, la humanidad será puesta a prueba y el destino de nuestros hijos depende de cómo respondamos a estos desafíos.
*Político de la UCA.
Tambien te puede interesar

