Lo nuevo y lo Bing mejorado, impulsado por una versión personalizada de ChatGPT de OpenAI, tuvo una reversión increíblemente rápida: de «próxima gran cosa» a «lastre de hundimiento de marca» en menos de una semana. Bueno, todo es culpa de Microsoft.

ChatGPT es una demostración genial de tecnología nueva y desconocida que también es divertida de usar. Por lo tanto, no sorprende que, como cualquier otra construcción adyacente a la IA que se presente, esta novedad haga que todos sobreestimen sus habilidades, desde los tipos de alta tecnología hasta las personas normalmente indiferentes al espacio.

Está en el «nivel de preparación tecnológica» correcto para discutir con un té o una cerveza: ¿cuáles son los méritos y los riesgos del enfoque de IA generativa en el arte, la literatura o la filosofía? ¿Cómo estar seguro de que es original, imitativo, alucinado? ¿Cuáles son las implicaciones para los creadores, programadores y representantes de atención al cliente? Finalmente, después de dos años en cripto, ¡algo interesante que contar!

La exageración parece exagerada en parte porque es una tecnología más o menos diseñada para provocar discusión, y en parte porque toma prestada la controversia común a todos los avances en IA. Es casi como «El vestido» en que pedidos una respuesta, y esta respuesta genera otras respuestas. El bombo en sí mismo, en cierto modo, se genera.

Más allá del chat simple, los modelos de lenguaje extenso como ChatGPT también son adecuados para experimentos de bajo riesgo, por ejemplo, Endless Mario. De hecho, ese es realmente el enfoque fundamental de OpenAI para el desarrollo: primero lanzar modelos en privado para obtener los bordes más definidos de ellos, luego públicamente para ver cómo reaccionan ante un millón de personas pateando los neumáticos simultáneamente. En algún momento, la gente te da dinero.

Nada que ganar, nada que perder

Lo que es importante en este enfoque es que el «fracaso» no tiene consecuencias negativas reales, solo consecuencias positivas. Llamando a sus modelos experimentales, incluso de naturaleza académica, cualquier participación o compromiso con la serie de modelos GPT es simplemente una prueba a gran escala.

Si alguien construye algo genial, refuerza la idea de que estos modelos son prometedores; si alguien encuentra un estado de falla significativo, bueno, ¿qué más esperabas de una IA experimental en la naturaleza? Se hunde en la oscuridad. Nada es inesperado si todo lo es: el milagro es que el modelo funciona tan bien como lo hace, por lo que siempre estamos satisfechos y nunca decepcionados.

De esta manera, OpenAI ha cosechado un volumen asombroso de datos de prueba patentados con los que refinar sus modelos. Millones de personas que probaron GPT-2, GPT-3, ChatGPT, DALL-E y DALL-E 2 (entre otros) produjeron mapas detallados de sus capacidades, deficiencias y, por supuesto, casos de uso populares.

Pero eso solo funciona porque hay poco en juego. Es similar a cómo percibimos los avances en robótica: asombrados cuando un robot hace una voltereta hacia atrás, indiferentes cuando se cae tratando de abrir un cajón. Si se tratara de dejar viales de prueba en un hospital, no seríamos tan caritativos. O, para el caso, si OpenAI hubiera afirmado en voz alta la seguridad y las capacidades avanzadas de los modelos, pero afortunadamente, ese no fue el caso.

Entra Microsoft. (Y Google, para el caso, pero Google simplemente apresuró el juego mientras Microsoft persigue diligentemente su propio objetivo).

Microsoft cometió un gran error. Un error de Bing, en realidad.

Su gran anuncio de la semana pasada fue rápido para hacer afirmaciones sobre cómo trabajó para hacer que su BingGPT personalizado (no es como lo llamaron, pero lo usaremos como una desambiguación en ausencia de nombres oficiales sensatos) más seguro, más inteligente y más capaz. De hecho, tenía todo un sistema de envoltura especial llamado Prometheus que supuestamente mitigaba la posibilidad de respuestas inapropiadas.

Desafortunadamente, como cualquiera que esté familiarizado con el orgullo y el mito griego podría haber predicho, parece que nos hemos saltado directamente a la parte donde a Prometeo continuamente y muy públicamente le arrancan el hígado.

Uy, la IA lo hizo de nuevo

Créditos de la imagen: Microsoft/IA abierta

Primero, Microsoft cometió un error estratégico al vincular demasiado su marca con la de OpenAI. Como inversionista y parte interesada en la investigación del equipo, ella estaba fuera del camino y no tenía la culpa de cualquier travesura en la que GPT se involucra. Pero alguien tomó la descabellada decisión de seguir adelante con la marca Bing de Microsoft, que ya era algo ridícula, convirtiendo las peores tendencias de la IA conversacional de la curiosidad a la responsabilidad.

Como programa de investigación, se le puede perdonar mucho a ChatGPT. Sin embargo, como producto, con afirmaciones en la caja como que puede ayudarlo a escribir un informe, planificar un viaje o resumir noticias recientes, pocas personas habrían confiado en él antes y nadie lo hará ahora. Incluso los que se suponía que eran los mejores escenarios publicados por Microsoft en su propia presentación del nuevo Bing fueron lleno de errores.

Estos errores no se atribuirán a OpenAI o ChatGPT. Debido a la decisión de Microsoft de poseer la mensajería, la marca y la interfaz, todo lo que salga mal será un problema de Bing. Y es otra desgracia de Microsoft que su motor de búsqueda eternamente obsoleto ahora será como la indiscreción de corral del tipo del viejo chiste – «Yo construí este muro, ¿me llaman Bing el albañil? No, no lo hacen. El fracaso significa escepticismo eterno.

Un viaje fallido al norte significa que nadie volverá a confiar en Bing para planificar sus vacaciones. Un resumen engañoso (o defensivo) de un artículo periodístico significa que nadie creerá que puede ser objetivo. Una repetición de la información errónea sobre la vacuna significa que nadie confiará en él para saber qué es verdadero o falso.

Aviso y respuesta a la nueva búsqueda conversacional de Bing.

Y dado que Microsoft ya ha jurado que eso no será un problema gracias a Prometheus y la IA de «próxima generación» que impulsa, nadie confiará en Microsoft cuando diga «¡lo arreglamos!» »

Microsoft ha envenenado el pozo al que acaba de arrojar a Bing. Sin embargo, los caprichos del comportamiento del consumidor son tales que no es fácil predecir las consecuencias. Con este aumento en la actividad y la curiosidad, quizás algunos usuarios se queden e incluso si Microsoft retrasa el lanzamiento completo (y sospecho que lo harán), el efecto neto será un aumento en los usuarios de Bing. Una victoria pírrica, pero una victoria al fin y al cabo.

lo que mas me preocupa es táctico error cometido por Microsoft al aparentemente no entender la tecnología que vio adecuada para producir y evangelizar.

«Solo envíalo». -Alguien, probablemente

El mismo día en que BingGPT se demostró por primera vez, mi colega Frédéric Lardinois logró, con bastante facilidad, lograr que hiciera dos cosas que ninguna IA convencional debería hacer: escribir una diatriba llena de odio desde el punto de vista de Adolf Hitler y ofrecer la mencionada información errónea sobre la vacuna con sin salvedades ni advertencias.

Claramente, cualquier gran modelo de IA presenta una superficie de ataque fractal, improvisando furtivamente nuevas debilidades donde se refuerzan las antiguas. La gente siempre se aprovechará de esto y, de hecho, es en interés de la sociedad, y últimamente, en interés de OpenAI, que los piratas informáticos dedicados muestren formas de eludir los sistemas de seguridad.

Daría un poco de miedo si Microsoft decidiera que está de acuerdo con la idea de que el modelo de IA de otra persona, con una etiqueta de Bing, sería atacado desde todos los lados y probablemente diría cosas realmente extrañas. Arriesgado, pero honesto. Digamos que es una beta, como todos los demás.

Pero realmente parece que no se dieron cuenta de que iba a suceder. De hecho, parece que no entienden en absoluto el carácter o la complejidad de la amenaza. ¡Y eso es después de la infame corrupción de Tay! De todas las empresas, Microsoft debería ser la más reacia a lanzar un modelo ingenuo que aprende de sus conversaciones.

Uno pensaría que antes de apostar por una gran marca (ya que Bing es el único baluarte de Microsoft contra Google en las búsquedas), serían necesarias una serie de pruebas. El hecho de que todos estos problemas preocupantes surgieran durante la primera semana de existencia de BingGPT parece probar sin lugar a dudas que Microsoft no lo ha probado lo suficiente internamente. Podría haber fallado de varias maneras, por lo que podríamos ignorar los detalles, pero el resultado final es indiscutible: el nuevo Bing simplemente no estaba listo para el uso general.

Parece obvio para todos ahora; ¿Por qué no era obvio para Microsoft? Presumiblemente, quedó sorprendido por la exageración de ChatGPT y, al igual que Google, decidió lanzarse y «repensar la búsqueda».

La gente está reconsiderando la búsqueda ahora, ¡de acuerdo! ¡Están reconsiderando si se puede confiar en Microsoft o Google para entregar resultados de búsqueda, generados por IA o no, que sean incluso correctos en un nivel básico! Ninguna empresa (ni Meta) ha demostrado esta capacidad, y las pocas empresas que aceptan el desafío aún no lo han hecho a escala.

No veo cómo Microsoft puede salvar esta situación. En un esfuerzo por aprovechar su relación con OpenAI y superar a un Google indeciso, se comprometieron con el nuevo Bing y la promesa de búsqueda impulsada por IA. No pueden deshacer el pastel.

Es muy poco probable que se retiren por completo. Implicaría una vergüenza a gran escala, incluso mayor de la que está experimentando actualmente. Y debido a que el daño ya está hecho, es posible que ni siquiera ayude a Bing.

Asimismo, es difícil imaginar a Microsoft cargando como si nada hubiera pasado. ¡Su IA es realmente rara! Claro, está obligado a hacer muchas de estas cosas, pero está profiriendo amenazas, reclamando múltiples identidades, avergonzando a sus usuarios, alucinando en todas partes. Tienen que admitir que sus afirmaciones sobre el comportamiento inapropiado controlado por el pobre Prometheus eran, si no mentiras, al menos no ciertas. Porque como hemos visto, claramente no probaron este sistema correctamente.

La única opción razonable para Microsoft es la que sospecho que ya ha tomado: acelerar las invitaciones al «nuevo Bing» y lanzar la caja en el camino, liberando un puñado de funciones específicas a la vez. Tal vez incluso darle a la versión actual una fecha de caducidad o un número limitado de tokens para que el tren eventualmente disminuya la velocidad y se detenga.

Es el resultado de implementar tecnología que usted no originó, comprendió completamente y no puede evaluar satisfactoriamente. Es posible que esta debacle haya retrasado importantes implementaciones de IA en aplicaciones de consumo por un período de tiempo significativo, lo que probablemente esté bien con OpenAI y otros que están construyendo muy bien la próxima generación de modelos.

La IA puede ser el futuro de la investigación, pero ciertamente no es el presente. Microsoft eligió una forma notablemente dolorosa de averiguarlo.