En Silicon Valley, algunas de las mentes más brillantes creen que una Renta Básica Universal (UBI) que garantice a las personas pagos en efectivo sin restricciones los ayudará a sobrevivir y prosperar a medida que las tecnologías de punta acaban con más carreras como las que conocemos, cuello blanco y creatividad. trabajos – abogados, periodistas, artistas, ingenieros de software – para roles de trabajo. La idea ganó suficiente tracción que docenas Los programas de ingresos garantizados se han lanzado en ciudades de EE. UU. desde 2020.
Sin embargo, incluso Sam Altman, el CEO de OpenAI y uno de los más destacados promotores de UBI, no creas que es una solución completa. Como dijo durante una sentarse a principios de este año, «Creo que esa es una pequeña parte de la solución. Creo que eso es genial. pienso como [advanced artificial intelligence] participa cada vez más en la economía, debemos distribuir mucha más riqueza y recursos de los que tenemos y esto será importante con el tiempo. Pero no creo que eso solucione el problema. No creo que tenga sentido para la gente, no creo que signifique que la gente dejará de intentar crear y hacer cosas nuevas y lo que sea. Así que consideraría esto como una tecnología habilitadora, pero no como un modelo para la sociedad. »
La pregunta que se plantea es cómo debería ser un plan de empresa entonces, y el informático Jaron Lanier, fundador en el campo de la realidad virtual, escribe en la edición de esta semana. neoyorquino que la “dignidad de los datos” podría ser una parte aún más importante de la solución.
Estos son los conceptos básicos: en este momento, en su mayoría regalamos nuestros datos de forma gratuita a cambio de servicios gratuitos. Lanier soutient qu’à l’ère de l’IA, devons-nous arrêter de faire cela, que les modèles puissants qui se frayent actuellement un chemin dans la société «soient connectés avec les humains» qui leur donnent tant à ingérer et à apprendre en primer lugar.
La idea es que a las personas “se les pague por lo que crean, incluso cuando se filtran y recombinan” en algo irreconocible.
El concepto no es completamente nuevo, ya que Lanier introdujo por primera vez la noción de dignidad de los datos en un artículo de Harvard Business Review de 2018 titulado «Un plan para una mejor sociedad digital.”
Como escribió en ese momento con el coautor y economista Glen Weyl, «[R]La historia del sector tecnológico sugiere una ola de subempleo por venir debido a la inteligencia artificial (IA) y la automatización. Pero las predicciones de los defensores de la RBU «solo dejan espacio para dos resultados» y son extremas, observaron Lanier y Weyl. “O habrá pobreza masiva a pesar de los avances tecnológicos, o gran parte de la riqueza tendrá que estar bajo control central y nacional a través de un fondo de riqueza social para proporcionar a los ciudadanos un ingreso básico universal”.
El problema es que “la hiperconcentración de poder socava o ignora el valor de los creadores de datos”, escribieron.
desentrañar mi mente
Por supuesto, dar a las personas la cantidad correcta de crédito por sus innumerables contribuciones a cualquier cosa en línea no es un desafío pequeño. Lanier reconoce que incluso los investigadores de la dignidad de los datos no pueden ponerse de acuerdo sobre cómo desenredar todo lo que han absorbido los modelos de IA o cuán granular debe ser una contabilidad.
Aún así, cree que podría hacerse, gradualmente. «El sistema no necesariamente daría cuenta de los miles de millones de personas que hicieron contribuciones ambientales a modelos grandes, por ejemplo, aquellos que agregaron a la competencia gramatical simulada de un modelo». Pero comenzando con un «pequeño número de colaboradores especiales», con el tiempo «se podría incluir a más personas» y «comenzar a desempeñar un papel».
Por desgracia, incluso si hay voluntad, se avecina un desafío más inmediato: la falta de acceso. Aunque OpenAI ha publicado algunos de sus datos de entrenamiento en años anteriores, desde entonces ha cerrado el kimono por completo. Cuando Greg Brockman describió los datos de capacitación para el modelo de lenguaje extendido más nuevo y poderoso de OpenAI, GPT-4, a TechCrunch el mes pasado, dijo que provenían de una «variedad de fuentes. Datos con licencia, creados y disponibles públicamente, que pueden incluir datos disponibles públicamente. datos. información personal”, pero se negó a ofrecer algo más específico.
Me gusta Open AI declarado cuando se lanza GPT-4, hay demasiados inconvenientes para que el atuendo revele más de lo que revela. «Dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción de conjuntos de datos, el método de entrenamiento o similares.» (Lo mismo ocurre con todos los principales modelos de lenguaje en este momento, incluido el chatbot Bard de Google).
Como era de esperar, los reguladores se preguntan qué hacer. OpenAI, cuya tecnología en particular se está extendiendo como la pólvora, ya está en la mira de un número creciente de países, incluida la autoridad italiana, que ha bloqueado el uso de su popular chatbot ChatGPT. Los reguladores de datos franceses, alemanes, irlandeses y canadienses también están investigando cómo recopila y utiliza los datos.
Pero como Margaret Mitchell, una investigadora de IA que anteriormente fue codirectora de ética de IA en Google, dijo al medio. Revisión de tecnologíaEn este punto, podría ser casi imposible para estas empresas identificar los datos de las personas y eliminarlos de sus modelos.
Como explica el medio: OpenAI estaría mejor hoy si tuviera el registro de datos integrado desde el principio, pero es común en la industria de la IA crear conjuntos de datos para modelos de IA raspando indiscriminadamente la web y luego subcontratando parte de la limpieza de esos datos
Cómo salvar una vida
Si estos actores realmente tienen una comprensión limitada de lo que hay ahora en sus modelos, eso es un desafío lo suficientemente grande para la propuesta de «dignidad de los datos» de Lanier, quien llama a Altman un «colega y amigo» en su artículo New Yorker.
Si eso lo hace imposible es algo que solo el tiempo dirá.
Ciertamente, hay mérito en encontrar una manera de dar a las personas la propiedad de su trabajo, incluso si aparentemente es «otro». También es probable que la frustración de quién es dueño de qué aumente a medida que el mundo se remodele con estas nuevas herramientas.
Ya, OpenAI y otros se enfrentan muchos y a gran escala demandas por infracción de derechos de autor en cuanto a si tienen o no el derecho de raspar todo Internet para impulsar sus algoritmos.
Quizás lo más importante, dar crédito a las personas por lo que sale de estos sistemas de IA podría ayudar a preservar la cordura humana con el tiempo, sugiere Lanier en su fascinante artículo del New Yorker.
La gente necesita libre albedrío y, según él, la renta básica universal por sí sola “es como dejar a todo el mundo sin trabajo para preservar la idea de la inteligencia artificial de la caja negra”.
Mientras tanto, poner fin a la «naturaleza de caja negra de nuestros modelos de IA actuales» facilitaría el recuento de las contribuciones de las personas, lo que podría hacer que sea mucho más probable que continúen haciendo contribuciones.
Todo podría reducirse a establecer una nueva clase creativa en lugar de una nueva clase dependiente, escribe. ¿Y de quién preferirías formar parte?
