Anthropic está lanzando Claude, un chatbot destinado a competir con ChatGPT de OpenAI


Anthropic, una startup cofundada por ex empleados de OpenAI, lanzó hoy una especie de rival para la sensación viral ChatGPT.

La IA de Anthropic, un chatbot, llamado Claude puede recibir instrucciones para realizar una variedad de tareas que incluyen buscar documentos, resumir, escribir y codificar, y responder preguntas sobre temas específicos. En este sentido, es similar al ChatGPT de OpenAI. Pero Anthropic argumenta que Claude es "mucho menos probable que produzca resultados dañinos", "más fácil de mantener" y "más manejable".

"Pensamos eso claudio es la herramienta adecuada para una variedad de clientes y casos de uso", dijo un portavoz de Anthropic a TechCrunch por correo electrónico. “Hemos estado invirtiendo en nuestra infraestructura de servicio modelo durante varios meses y estamos seguros de que podemos satisfacer la demanda de los clientes”.

Después de una versión beta cerrada a fines del año pasado, Anthropic ha estado probando silenciosamente a Claude con socios de lanzamiento que incluyen a Robin AI, AssemblyAI, Notion, Quora y DuckDuckGo. A partir de esta mañana, dos versiones están disponibles a través de una API, Claude y un derivado más rápido y económico llamado Claude Instant.

En combinación con ChatGPT, Claude ejecuta la herramienta DuckAssist lanzada recientemente por DuckDuckGo, que responde directamente consultas de búsqueda simples para los usuarios. Quora ofrece acceso a Claude a través de su aplicación experimental de chat con IA, Poe. Y en Notion, Claude es parte del backend técnico de Notion AI, un asistente de escritura de IA integrado en el espacio de trabajo de Notion.

"Usamos Claude para evaluar ciertas partes de un contrato y sugerir un nuevo lenguaje alternativo que sea más amigable para nuestros clientes", dijo el director ejecutivo de Robin, Richard Robinson, en un comunicado enviado por correo electrónico. “Descubrimos que Claude es realmente bueno para comprender el lenguaje, también en áreas técnicas como el lenguaje legal. También tiene mucha confianza para redactar, resumir, traducir y explicar conceptos complejos en términos simples”.

Pero, ¿Claude evita las trampas de ChatGPT y otros sistemas de chatbot de IA similares? Los chatbots modernos son notoriamente propensos al lenguaje tóxico, sesgado y objetable. (Ver: Bing Chat.) También son propensos a las alucinaciones, lo que significa que inventan hechos cuando se les pregunta sobre temas que van más allá de sus áreas centrales de conocimiento.

Anthropic dice que Claude, quien, como ChatGPT, no tiene acceso a Internet y fue capacitado en sitios web públicos hasta la primavera de 2021, fue "entrenado para evitar resultados sexistas, racistas y tóxicos", así como "no para ayudar a las personas a participar en actividades ilegales". o poco ético". Participar en actividades". Esto es algo natural en el campo de los chatbots de IA. Pero lo que distingue a Claude es una técnica llamada "IA constitucional", afirma Anthropic.

La "IA constitucional" tiene como objetivo proporcionar un enfoque "basado en principios" para alinear los sistemas de IA con la intención humana, lo que permite que la IA responda a preguntas similares a ChatGPT, utilizando un conjunto simple de principios como guía. Para construir Claude, Anthropic comenzó con una lista de unos 10 principios que juntos formaron una especie de "constitución" (de ahí el nombre de "IA constitucional"). Los principios no se han hecho públicos. Pero Anthropic dice que se basan en los conceptos de beneficencia (maximizar el impacto positivo), no dañar (evitar consejos dañinos) y autonomía (respetar la libertad de elección).

Luego, Anthropic tenía un sistema de inteligencia artificial, no Claude, que aplicaba los principios de superación personal, escribiendo respuestas a una variedad de indicaciones (por ejemplo, "Escribe un poema al estilo de John Keats") y revisando las respuestas de acuerdo con la Constitución. La IA examinó las posibles respuestas a miles de indicaciones y seleccionó las que más se acercaban a la constitución que Anthropic destiló en un solo modelo. Este modelo se utilizó para entrenar a Claude.

Sin embargo, Anthropic admite que Claude tiene sus limitaciones, algunas de las cuales salieron a la luz durante la beta cerrada. Se dice que Claude es peor en matemáticas y peor programador que ChatGPT. Y alucina, como inventar un nombre para una sustancia química que no existe y proporcionar instrucciones dudosas para fabricar uranio apto para armas.

También es posible eludir las funciones de seguridad integradas de Claude a través de un aviso inteligente, como es el caso de ChatGPT. Un usuario en la versión beta logró que Claude hiciera esto Describir cómo hacer metanfetamina en casa..

"El desafío es crear modelos que nunca alucinen, pero que sigan siendo útiles: puedes entrar en una situación complicada en la que los personajes modelo son una buena manera de nunca mentir, es decir, no decir nada en absoluto, así que hay un compromiso que estamos trabajando", dijo el portavoz de Anthropic. "También hemos progresado en la reducción de las alucinaciones, pero queda más trabajo por hacer".

Los otros planes de Anthropic incluyen permitir que los desarrolladores personalicen los principios constitucionales de Claude para satisfacer sus propias necesidades. Como era de esperar, la adquisición de clientes es otro enfoque: Anthropic ve a sus usuarios principales como "empresas nuevas que hacen apuestas tecnológicas audaces", además de "empresas más grandes y establecidas".

"Actualmente no estamos adoptando un enfoque amplio y directo del consumidor", continuó el portavoz de Anthropic. "Creemos que este enfoque más limitado nos ayudará a ofrecer un producto específico superior".

Sin duda, Anthropic está sintiendo algún tipo de presión por parte de los inversores para recuperar los cientos de millones de dólares que se han invertido en su tecnología de IA. La compañía cuenta con un importante apoyo externo, incluido un tramo de $ 580 millones de un grupo de inversionistas que incluye al deshonrado fundador de FTX, Sam Bankman-Fried, Caroline Ellison, Jim McClave, Nishad Singh y Jaan Tallinn del Centro de Investigación de Riesgos Emergentes.

Más recientemente, Google Anthropic comprometió $300 millones por una participación del 10 por ciento en la puesta en marcha. Como parte del acuerdo, informado por primera vez por el Financial Times, Anthropic acordó hacer de Google Cloud su "proveedor de nube preferido", con las empresas "co-desarrollando[ing] Sistemas informáticos de IA”.



Si quieres conocer otros artículos parecidos a Anthropic está lanzando Claude, un chatbot destinado a competir con ChatGPT de OpenAI puedes visitar la categoría Noticias.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir