Anthropic, una startup cofundada por ex empleados de OpenAI, lanzó hoy una especie de rival para la sensación viral ChatGPT.
Llamado Claude, la IA de Anthropic, un chatbot, puede encargarse de realizar una variedad de tareas, que incluyen buscar documentos, resumir, escribir y codificar, y responder preguntas sobre temas particulares. De esta forma, es similar al ChatGPT de OpenAI. Pero Anthropic argumenta que Claude es «mucho menos probable que produzca resultados dañinos», «más fácil conversar con él» y «más orientable».
«Nosotros pensamos que claudio es la herramienta adecuada para una amplia variedad de clientes y casos de uso”, dijo un portavoz de Anthropic a TechCrunch por correo electrónico. «Hemos estado invirtiendo en nuestra infraestructura para dar servicio a los modelos durante varios meses y estamos seguros de que podemos satisfacer la demanda de los clientes».
Después de una versión beta cerrada a fines del año pasado, Anthropic probó silenciosamente a Claude con socios de lanzamiento, incluidos Robin AI, AssemblyAI, Notion, Quora y DuckDuckGo. Dos versiones están disponibles desde esta mañana a través de una API, Claude y un derivado más rápido y menos costoso llamado Claude Instant.
En combinación con ChatGPT, Claude potencia la herramienta DuckAssist lanzada recientemente por DuckDuckGo, que responde directamente a consultas de búsqueda simples de los usuarios. Quora ofrece acceso a Claude a través de su aplicación experimental de chat con IA, Poe. Y en Notion, Claude es parte del backend técnico de Notion AI, un asistente de escritura de IA integrado en el espacio de trabajo de Notion.
«Utilizamos Claude para evaluar partes particulares de un contrato y sugerir un nuevo lenguaje alternativo que sea más fácil de usar para nuestros clientes», dijo el director general de Robin, Richard Robinson, en un comunicado enviado por correo electrónico. “Descubrimos que Claude es muy bueno para comprender el lenguaje, incluso en áreas técnicas como el lenguaje legal. También tiene mucha confianza para escribir, resumir, traducir y explicar conceptos complejos en términos simples.
Pero, ¿Claude evita las trampas de ChatGPT y otros sistemas de chatbot de IA similares? Los chatbots modernos son notoriamente propensos al lenguaje tóxico, sesgado y ofensivo. (Ver: Bing Chat.) También tienden a alucinar, lo que significa que inventan hechos cuando se les pregunta sobre temas que van más allá de sus áreas básicas de conocimiento.
Anthropic dice que Claude, quien, como ChatGPT, no tiene acceso a Internet y fue capacitado en páginas web públicas hasta la primavera de 2021, fue «entrenado para evitar salidas sexistas, racistas y tóxicas», así como «para evitar ayudar a un ser humano a participar en actividades ilegales o poco éticas. Esto es habitual en los chatbots de IA. Pero lo que distingue a Claude es una técnica llamada «IA constitucional», dice Anthropic.
La «IA constitucional» tiene como objetivo proporcionar un enfoque «basado en principios» para alinear los sistemas de IA con las intenciones humanas, lo que permite que una IA similar a ChatGPT responda preguntas utilizando un conjunto simple de principios como guía. Para construir Claude, Anthropic comenzó con una lista de diez principios que, en conjunto, formaban una especie de “constitución” (de ahí el nombre de “IA constitucional”). Los principios no se han hecho públicos. Pero Anthropic dice que se basan en los conceptos de beneficencia (maximizar el impacto positivo), no maleficencia (evitar dar consejos dañinos) y autonomía (respetar la libertad de elección).
Anthropic entonces tenía un sistema de inteligencia artificial, no Claude, que usaba los principios de superación personal, escribía respuestas a una variedad de indicaciones (por ejemplo, «componga un poema al estilo de John Keats») y revisaba las respuestas de acuerdo con la constitución. La IA exploró las posibles respuestas a miles de indicaciones y seleccionó aquellas que eran más consistentes con la constitución, que Anthropic destiló en un solo modelo. Este modelo se utilizó para entrenar a Claude.
Anthropic admite, sin embargo, que Claude tiene sus limitaciones, varias de las cuales fueron reveladas durante la beta cerrada. Claude sería menos bueno en matemáticas y menos buen programador que ChatGPT. Y está alucinando, inventando un nombre para una sustancia química que no existe, por ejemplo, y dando instrucciones cuestionables para producir uranio apto para armas.
También es posible eludir las funciones de seguridad integradas de Claude a través de indicaciones inteligentes, como es el caso de ChatGPT. Un usuario beta logró que Claude describir cómo hacer metanfetamina en casa.
«El desafío es crear modelos a seguir que nunca alucinen, pero que siempre sean útiles. Es posible que te encuentres en una situación difícil en la que el modelo a seguir descubra que una buena manera de nunca mentir es no decir nunca nada, así que hay un intercambio. allí en el que estamos trabajando”, dijo el portavoz de Anthropic. “También hemos progresado en la reducción de las alucinaciones, pero aún queda un largo camino por recorrer”.
Otros proyectos de Anthropic incluyen la capacidad de los desarrolladores de personalizar los Principios Constitucionales de Claude para satisfacer sus propias necesidades. La adquisición de clientes es otro enfoque, como era de esperar: Anthropic considera que sus usuarios principales son «empresas emergentes que hacen apuestas tecnológicas audaces», además de «empresas más grandes y establecidas».
“No estamos siguiendo un enfoque amplio directo al consumidor en este momento”, continuó el portavoz de Anthropic. «Creemos que este enfoque más estrecho nos ayudará a ofrecer un producto específico de mayor calidad».
Sin duda, Anthropic está sintiendo algún tipo de presión por parte de los inversores para recuperar los cientos de millones de dólares que se han invertido en su tecnología de IA. La compañía cuenta con un respaldo externo sustancial, que incluye un tramo de $ 580 millones de un grupo de inversionistas que incluye al deshonrado fundador de FTX, Sam Bankman-Fried, Caroline Ellison, Jim McClave, Nishad Singh, Jaan Tallinn y el Centro de Investigación de Riesgos Emergentes.
Más recientemente, Google comprometió $300 millones a Anthropic por una participación del 10% en la puesta en marcha. Según los términos del acuerdo, que fue primero reportado por el Financial Times, Anthropic acordó hacer de Google Cloud su «proveedor de nube preferido» con empresas que «co-desarrollan[ing] Sistemas informáticos de IA.
