La cumbre de seguridad de IA del Reino Unido recibe luz verde de los gigantes tecnológicos

La cumbre de seguridad de IA del Reino Unido recibe luz verde de los gigantes tecnológicos

En otro foro sobre seguridad de IA. El gobierno del Reino Unido ha anunciado que convocará una cumbre de IA «global» este otoño con el objetivo de acordar «salvaguardas para evaluar y monitorear los riesgos más significativos asociados con la IA», como su relaciones públicas el plato.

Todavía no está claro quién asistirá, pero el gobierno dice que quiere que la discusión incluya «países clave, empresas tecnológicas líderes e investigadores».

“La cumbre, que se llevará a cabo en el Reino Unido este otoño, examinará los riesgos de la IA, incluidos los sistemas fronterizos, y discutirá cómo pueden mitigarse a través de una acción coordinada internacionalmente. También proporcionará una plataforma para que los países trabajen juntos para desarrollar un enfoque común para mitigar estos riesgos”, agrega.

El primer ministro Rishi Sunak se encuentra hoy en los Estados Unidos donde, según la línea del gobierno, se reunirá con el presidente Biden y presionará por un «liderazgo conjunto» de tecnologías como la IA, entre discusiones de otros temas económicamente importantes.

En particular, el comunicado de prensa que anuncia la ambición del Reino Unido de organizar una cumbre global de IA incluye simultáneamente un reclamo separado, con respecto a «empresas globales que desarrollan su trabajo de IA en el Reino Unido», y el gobierno destaca desarrollos como OpenAI que abre una oficina en Londres la semana pasada.

Las relaciones públicas también están dominadas por citas enlatadas de gigantes tecnológicos y firmas de inteligencia artificial, como Google DeepMind, Anthropic, Palantir y Facultad, que elogian el plan de la cumbre a través de declaraciones de apoyo de altos ejecutivos.

(Para una muestra de la adulación de la industria incrustada en las relaciones públicas del gobierno, Demis Hassabis de DeepMind proclama que la «Cumbre Global de Seguridad de la IA jugará un papel vital para acercar al gobierno, la industria, la academia y la sociedad civil»; Dario Amodei de Anthropic elogia al Primer Ministro por » uniendo al mundo para encontrar respuestas y tener conversaciones inteligentes»; y Marc Warner, de la facultad, sugiere que el Reino Unido está «en una posición perfecta» para proporcionar «liderazgo tecnológico» y «fomentar la colaboración internacional»;

La estrategia por la que el Reino Unido parece estar optando aquí es posicionarse como el mejor amigo (o, bueno, títere) de la industria de la IA, de una manera que podría ir en contra de los esfuerzos de las organizaciones internacionales existentes para acordar salvaguardas significativas para la IA si termina abriendo una brecha entre el lado estadounidense y otros jugadores internacionales.

El anuncio de la cumbre se produce unas dos semanas después de que Sunak se reuniera con una serie de ejecutivos de tecnología líderes en gigantes de IA, incluidos Amodei de Anthropic, Hassabis de DeepMind y Sam Altman de OpenAI. Después de lo cual el gobierno de repente comenzó a gritar sobre el riesgo existencial de la IAen un claro loro de las preocupaciones de ciencia ficción que los gigantes de la IA han promulgado sobre los sistemas de IA «superinteligentes» inexistentes, en un esfuerzo por enmarcar el debate sobre la seguridad de la IA centrándose en los riesgos futuros teóricos, mientras se minimiza la discusión de los daños reales. causados ​​por la IA en el aquí y ahora (como el abuso de la privacidad, el sesgo, la discriminación y la desinformación, la violación del derecho a la autoría y el daño ambiental, por mencionar algunos).

En otra señal del generoso amor de la industria de la IA por UK Plcrn, el CEO de Palantir, Alex Karp, fue entrevistado en AI esta mañana por el programa Today de BBC Radio 4, donde elogió el «enfoque pragmático de la protección de datos» del Reino Unido. , como él lo expresó, comparando favorablemente la falta de aplicación de las reglas de privacidad del Reino Unido con la aplicación más estricta del Reglamento General de Protección de Datos de la UE (que, por el contrario, obligó rápidamente a ChatGPT a proporcionar a los usuarios más información y controles), además de afirmar que será «mucho más difícil para el continente adaptarse a los grandes modelos lingüísticos [than the UK]”.

Queda por ver qué pensará la administración Biden sobre la cumbre de seguridad de IA de Sunak. O, de hecho, si alguien importante del gobierno de los Estados Unidos estará presente. Pero los gigantes de la IA, en su mayoría con sede en los EE. UU., ciertamente están enturbiando la conversación sobre la regulación de la IA sobre el estanque.

Los legisladores de EE. UU. siguen preocupados por la carga regulatoria de la IA en la industria, y claramente son más reacios a apresurarse con medidas de protección que, digamos, sus contrapartes en la Unión Europea.

Como tercer país de estos dos lados, el Reino Unido tiene la opción de decidir dónde arrojar su sombrero sobre las reglas internacionales de IA. Todos los indicios muestran que pretende tratar de usar este tema, y ​​los gigantes estadounidenses de la IA, como palanca estratégica para acercarse a los Estados Unidos, basándose en la alineación con reglas de IA más diluidas (suponiendo que los Estados Unidos acepten jugar este juego).

El Reino Unido en realidad se ha convertido tarde en la discusión sobre cómo regular la IA. Hace solo unos meses, publicó un libro blanco sobre IA en el que decía que no veía la necesidad de nuevas reglas a medida u organismos de supervisión para la IA, y prefería en cambio responsabilizar a los reguladores existentes con exceso de trabajo (sin aumentar sus presupuestos) al pedir diseñar y publicar contexto. orientación específica. ¿El nombre de este libro blanco? “Un enfoque a favor de la innovación para la regulación de la IA”.

También mueve esta Cumbre de IA en un momento en que los gobiernos, los reguladores y los legisladores de todo el mundo ya están respondiendo a la creciente alarma sobre los riesgos de seguridad derivados del rápido desarrollo de tecnologías de aprendizaje automático mediante la movilización de una variedad de vías de debate e iniciativas con el objetivo de lograr internacional. acuerdo sobre salvaguardias y normas de seguridad.

La OCDE ya ha adoptado Principios de la IA todo el camino de vuelta en mayo de 2019. Mientras que el La FTC publicó consejos sobre IA en abril de 2021. E incluso la Administración Nacional de Telecomunicaciones e Información (NTIA) del Departamento de Comercio de EE. UU. ha comenzado consulta sobre cómo fortalecer la rendición de cuentas de AI este abril. La ONU también está investigando la IA.

Luego está el El «proceso de Hiroshima» de los líderes del G7 – una pista reciente compuesta por discusiones a nivel de gabinete entre los países del G7 sobre la gobernanza de la IA que se publicará a finales de año. Mientras que antes de eso, los países del G7 y otros habían lanzado el Asociación mundial de IA — cuyo objetivo es promover el desarrollo y el uso responsables y centrados en el ser humano de las tecnologías de IA mediante el intercambio de investigaciones y el fomento de la colaboración internacional hacia una IA confiable.

Mientras tanto, la Unión Europea presentó su propio proyecto de ley hace más de dos años para regular la IA. Los legisladores del bloque ahora están ocupados llegando a un acuerdo sobre un texto final de este marco, incluido el análisis de cómo debería abordar la IA generativa, y se busca un acuerdo político sobre la ley de IA de la UE para fines de este año. (Aunque la ley paneuropea no entrará en vigor durante varios años).

La UE y los EE. UU. también están trabajando (o al menos discutiendo) juntos en un código de conducta de IA que pretende ser un conjunto provisional de estándares voluntarios hasta que la legislación entre en vigor, haciéndolo a través de un taller de conversación transatlántico, llamado EE. UU.-UE. Trade and Technology Council (TTC), foro del que Reino Unido no forma parte por haber abandonado la UE tras el referéndum del Brexit.

La semana pasada, la UE anunció que comenzaría a redactar este código de conducta de IA y agregó que esperaba tener algo en papel dentro de unas pocas semanas.

Aunque quedó menos claro después de la reunión del TTC cuán comprometida estaba la parte estadounidense. Pero los legisladores estadounidenses estaban en la sala para hablar.

Al hablar sobre el código de IA durante una sesión informativa con los periodistas la semana pasada, la vicepresidenta ejecutiva de la UE, Margrethe Vestager, que dirige la estrategia digital del bloque, destacó cómo esta iniciativa liderada por la UE podría, muy rápidamente, dar forma a las barreras de seguridad de la IA del mundo, diciendo a los periodistas: » Si podemos comenzar a escribir con los estadounidenses, el resto del G7, los invitados y hacer que la industria se registre, bueno, también seguro para nosotros con la validación de terceros, entonces podríamos cubrir un tercio de la población mundial en un muy, muy corto periodo de tiempo. Y eso puede ser algo bueno. »

Por lo tanto, el bloque claramente está trabajando a buen ritmo para aprovechar la oportunidad de aplicar el «Efecto Bruselas» a las reglas de IA de clase mundial.

Los legisladores de la UE también anunciaron recientemente una segunda vía sobre la regulación de la IA: un Pacto de IA que tiene como objetivo lograr que la industria tecnológica acepte cumplir voluntariamente con las próximas disposiciones de la Ley IA de la UE antes mencionada antes de que esta legislación entre en vigor (que es probable que no sea antes de 2026, según Vestager).

Por lo tanto, la UE está en todas partes en la regulación de la IA desde múltiples ángulos (ley dura, código de la industria, código internacional y un participante clave en otras iniciativas globales).

Estados Unidos ciertamente también está involucrado en la conversación, aunque se mantiene a una distancia más fría y mantiene sus cartas más cerca de su pecho, probablemente debido al cabildeo de los gigantes estadounidenses de IA.

En comparación, el Reino Unido simplemente se está subiendo los pantalones mientras se esfuerza por ponerse al día. (Después de comenzar su PR con una afirmación pegadiza de que el Reino Unido organizará «la primera gran cumbre mundial de seguridad de IA», continúa fingiendo hablar de boquilla sobre algunos de los esfuerzos internacionales existentes en seguridad de IA en los últimos años: haciendo una mención pasajera de «discusiones recientes en el G7, la OCDE y la Asociación Global de IA» en las que esto implica que la cumbre del Reino Unido lo hará No se mencionan los esfuerzos múltiples de IA de la UE; en cambio, hay una declaración ‘porky’ con sabor a Brexit: «Nuestra salida de la UE también nos permite actuar más rápido y con más agilidad en respuesta a este mercado que cambia rápidamente»).

Queda por ver hasta qué punto el Reino Unido se pone del lado de la industria de IA de EE. UU. en cuanto a las reglas de seguridad egoístas. Pero Sunak tiene la oportunidad de abrir una brecha en los esfuerzos de la UE para llevar a los estadounidenses a un código de IA internacional más sólido. De ahí todos los halagos de la industria de la IA.

Luego de la reunión de TTC entre los legisladores de la UE y los EE. UU., una fuente de la UE le dijo a TechCrunch que las discusiones revelaron enfoques divergentes, diciendo que EE. y una regulación ambiciosa.

También nos dijeron que a la UE le preocupa que las discusiones sobre los principios globales de IA eventualmente se reduzcan a un mínimo común denominador que podría terminar socavando el marco legislativo para la ley de IA en función de los riesgos que el bloque tiene en marcha.

Por lo tanto, puede haber más en juego y en juego sobre la IA de Sunak de lo que parece.