A medida que la innovación en inteligencia artificial (IA) supera los ciclos de noticias y capta la atención del público, un marco para su desarrollo y uso responsable y ético se ha vuelto cada vez más esencial para garantizar que esta ola de tecnología sin precedentes alcance su máximo potencial como una contribución positiva a la economía y la sociedad. progreso. .

La Unión Europea ya ha trabajado para promulgar leyes de IA responsables; Compartí mis pensamientos sobre estas iniciativas. hace casi dos años. Entonces, la ley de IA, como se la llama, era «un enfoque objetivo y mesurado de la innovación y las consideraciones sociales». Hoy, los líderes de las empresas de tecnología y el gobierno de los Estados Unidos se unen para desarrollar una visión unificada de la IA responsable.

El poder de la IA generativa

El lanzamiento de ChatGPT de OpenAI capturó la imaginación de los innovadores tecnológicos, los líderes empresariales y el público el año pasado, y el interés de los consumidores y la comprensión de las capacidades generativas de IA se dispararon. Sin embargo, con la omnipresencia de la inteligencia artificial, incluso como un tema político, y la propensión de los humanos a experimentar y probar sistemas, es probable que la posibilidad de desinformación, el impacto en la privacidad y el riesgo para la seguridad cibernética y el comportamiento fraudulento se conviertan rápidamente en una ocurrencia tardía. .

En un primer esfuerzo por abordar estos posibles desafíos y garantizar una innovación de IA responsable que proteja los derechos y la seguridad de los estadounidenses, la Casa Blanca anunció nuevas acciones para promover la IA responsable.

Dentro una hoja informativa publicada por la Casa Blanca la semana pasada, la administración Biden-Harris describió tres acciones para “promover la innovación estadounidense responsable en inteligencia artificial (IA) y proteger los derechos y la seguridad de las personas”. Éstas incluyen:

  • Nuevas inversiones para impulsar la I+D responsable en IA de EE. UU.
  • Revisiones públicas de los sistemas de IA generativa existentes.
  • Políticas para garantizar que el gobierno de los EE. UU. lidere con el ejemplo en la mitigación de los riesgos de la IA y el aprovechamiento de las oportunidades de la IA.

Nuevas inversiones

En cuanto a las nuevas inversiones, los $140 millones en fondos de la Fundación Nacional de Ciencias para lanzar siete nuevos Institutos Nacionales de Investigación de IA palidecen en comparación con lo que han recaudado las empresas privadas.

Aunque direccionalmente correcto, la inversión del gobierno de EE. UU. en IA es en general microscópica en comparación con las inversiones gubernamentales en otros países, a saber China, que empezó a invertir en 2017. Existe una oportunidad inmediata de amplificar el impacto de la inversión a través de asociaciones universitarias para el desarrollo de la fuerza laboral y la investigación. El gobierno debería financiar los centros de IA junto con las instituciones académicas y las empresas que ya están a la vanguardia de la investigación y el desarrollo de IA, estimulando la innovación y creando nuevas oportunidades comerciales a través del poder de la IA.

Las colaboraciones entre los centros de IA y las principales instituciones académicas, como Schwarzman College del MIT y el Northeast Experiential AI Institute, ayudan a cerrar la brecha entre la teoría y la aplicación práctica al reunir a expertos de la academia, la industria y el gobierno para colaborar en proyectos de investigación y desarrollo de vanguardia. que tienen aplicaciones en el mundo real. Al asociarse con grandes empresas, estos centros pueden ayudar a las empresas a integrar mejor la IA en sus operaciones, mejorando la eficiencia, el ahorro de costos y mejores resultados para los consumidores.

Además, estos centros ayudan a capacitar a la próxima generación de expertos en IA al brindarles a los estudiantes acceso a tecnología de punta, experiencia práctica con proyectos del mundo real y tutoría de líderes de la industria. Al adoptar un enfoque proactivo y colaborativo de la IA, el gobierno de EE. UU. puede ayudar a dar forma a un futuro en el que la IA mejore, en lugar de reemplazar, el trabajo humano. Como resultado, todos los miembros de la sociedad pueden beneficiarse de las oportunidades creadas por esta poderosa tecnología.

Calificaciones públicas

La evaluación del modelo es clave para garantizar que los modelos de IA sean precisos, confiables e imparciales, lo que es esencial para una implementación exitosa en aplicaciones del mundo real. Por ejemplo, imagine un caso de uso de planificación urbana en el que la IA generativa se entrena en ciudades limitadas con poblaciones pobres históricamente subrepresentadas. Desafortunadamente, eso solo conducirá a más de lo mismo. Lo mismo ocurre con los sesgos en los préstamos, ya que cada vez más instituciones financieras utilizan algoritmos de IA para tomar decisiones de préstamo.

Si estos algoritmos se entrenan con datos que discriminan a ciertos grupos demográficos, pueden negar injustamente préstamos a estos grupos, lo que genera disparidades económicas y sociales. Si bien estos son solo algunos ejemplos de sesgo en la IA, debe seguir siendo una prioridad sin importar qué tan rápido se desarrollen e implementen nuevas tecnologías y técnicas de IA.

Para combatir el sesgo en la IA, la administración anunció una nueva oportunidad de evaluación de modelos en DEFCON 31 AI Village, un foro para que investigadores, profesionales y entusiastas se reúnan y exploren los últimos avances en IA, inteligencia artificial y aprendizaje automático. La evaluación del modelo es una iniciativa de colaboración con algunos de los actores clave en el espacio, incluidos Anthropic, Google, Hugging Face, Microsoft, Nvidia, OpenAI y Stability AI, aprovechando una plataforma ofrecida por Scale AI.

Además, medirá qué tan bien se alinean los modelos con los principios y prácticas descritos en el Plan para una Declaración de Derechos de IA de la administración Biden-Harris y el Marco Nacional de Gestión de Riesgos de IA Instituto de Estándares y Tecnología (NIST). Este es un desarrollo positivo en el que la administración se involucra directamente con las empresas y capitaliza la experiencia de los líderes técnicos de la industria, que se han convertido en laboratorios de IA corporativa.

Políticas gubernamentales

Con respecto a la tercera acción con respecto a las políticas para garantizar que el gobierno de los EE. UU. lidere con el ejemplo en la mitigación de los riesgos de la IA y el aprovechamiento de las oportunidades de la IA, la Oficina de Administración y Presupuesto debe escribir una guía de políticas sobre el uso de los sistemas de IA por parte del gobierno de los EE. UU. para comentarios públicos. . Una vez más, no se dieron plazos ni detalles de estas políticas, pero una orden ejecutiva sobre equidad racial publicada a principios de este año se espera que esté a la vanguardia.

La orden ejecutiva incluye una disposición que ordena a las agencias gubernamentales que utilicen la inteligencia artificial y los sistemas automatizados de una manera que promueva la equidad. Para que estas políticas tengan un impacto significativo, deben incluir incentivos y retroalimentación; no pueden ser simplemente consejos opcionales. Por ejemplo, los estándares de seguridad del NIST son requisitos efectivos para la implementación por parte de la mayoría de las agencias gubernamentales. El incumplimiento de estas reglas es, como mínimo, increíblemente vergonzoso para los involucrados y justifica la acción del personal en algunas partes del gobierno. Las políticas de IA del gobierno, bajo NIST o de otra manera, deben ser comparables para ser efectivas.

Además, el costo de cumplir con estas regulaciones no debería ser una barrera para la innovación impulsada por las empresas emergentes. Por ejemplo, ¿qué se puede lograr en un marco en el que el costo del cumplimiento normativo cambia con el tamaño de la empresa? Finalmente, a medida que el gobierno se convierte en un importante comprador de plataformas y herramientas de IA, es primordial que sus políticas se conviertan en el principio rector para construir dichas herramientas. Haga que el cumplimiento de estas pautas sea un requisito literal, si no real, para la compra (por ejemplo, el estándar de seguridad FedRamp), y estas políticas pueden mover la aguja.

A medida que los sistemas de IA generativa se vuelven más poderosos y generalizados, es esencial que todas las partes interesadas, incluidos los fundadores, operadores, inversores, tecnólogos, consumidores y reguladores, sean reflexivos e intencionales al buscar y comprometerse con estas tecnologías. Si bien la IA generativa y la IA en general tienen el potencial de revolucionar las industrias y crear nuevas oportunidades, también plantean desafíos importantes, en particular en torno a cuestiones de prejuicios, privacidad y consideraciones éticas.

Por lo tanto, todas las partes interesadas deben priorizar la transparencia, la rendición de cuentas y la colaboración para garantizar que la IA se desarrolle y utilice de manera responsable y beneficiosa. Esto significa invertir en investigación y desarrollo éticos de IA, comprometerse con diversas perspectivas y comunidades, y establecer pautas y regulaciones claras para el desarrollo y la implementación de estas tecnologías.