Anthropic se precia de haber reducido ostensiblemente en Claude las denominadas «alucinaciones» (o suministro de información falsa).
ChatGPT, que OpenAI ha robustecido recientemente con el nuevo modelo de IA GPT-4o, deberá enfrentarse en tierras europeas a un nuevo y potentísimo rival. Claude, el chatbot con IA de la startup estadounidense Anthropic, acaba de aterrizar en Europa. De acuerdo con Jack Clark, cofundador de Anthropic, los tests demuestran que Claude hace gala de un excelente rendimiento en francés, alemán, italiano, español y otras lenguas europeas.
Similar en su funcionamiento a ChatGPT, Claude se apoya en la IA para formular frases que remedan a la perfección el lenguaje humano y para resumir contenidos en formato texto. En Europa del chatbot de Anthropic estará disponible en una versión para la web y en una app para el iPhone y vendrá acompañado asimismo de una modalidad especial para empresas.
Anthropic levantó el telón de Claude 3, el modelo de IA agazapado en las entrañas de su chatbot, el pasado mes de marzo. Cuando la compañía estadounidense presentó este nuevo modelo, se ufanó de que Claude 3 había derrotado al modelo GPT-4 de OpenIA en algunos tests de naturaleza técnica.
El lanzamiento de Claude en el viejo continente ha sido, no obstante, opacado por la presentación ayer lunes de una nueva y parlanchina versión de ChatGPT capaz de mantener conversaciones con el usuario como si fuera una persona de carne y hueso. El nuevo ChatGPT vitaminado con GPT-4o está además en posición de responder a la información de naturaleza visual que recibe a través de la cámara del smartphone.
Este martes Google podría presentar asimismo innovaciones directamente emparentadas con la IA en su conferencia de desarrolladores.
Claude es más inmune a la «alucinaciones» que otros chatbots
Anthropic enfatiza que Claude puede resumir con facilidad textos largos y responder preguntas sobre tales textos. Según Jared Kaplan, cofundador de la matriz de Claude, el chatbot podría ser en este sentido particularmente útil para los expertos legales y también para los profesionales que se desenvuelven en el ámbito de la medicina y las finanzas.
La compañía no tiene todavía planes de almacenar datos en Europa, pero en todo caso dispuesta a hacerlo si así lo desean sus clientes. Conviene en todo caso hacer notar que los datos del usuario siempre se encriptan y que no, pueden, por ende, llegar a manos de personas no autorizadas.
Anthropic se precia de haber reducido ostensiblemente las denominadas «alucinaciones» (el suministro de información falsa) en su chatbot, asegura Kaplan. Tales «alucinaciones» son hoy por hoy uno de los grandes problemas con los que deben bregar los sistemas de IA. A la hora de generar textos, tales sistemas, que se entrenan con ingentes cantidades de datos, deciden palabra por palabra cómo continuar una determinada frase. Y ello pude resultar a la postre en la provisión de información totalmente incorrecta aun cuando tales sistemas hayan sido entrenados con información de naturaleza veraz.
En el caso de Claude Anthropic trata de minimizar los errores comparándolos con información de naturaleza factual y trata asimismo de prevenir las ofensas y la discriminación en sus respuestas.
Artículo publicado en marketingdirecto.com y escrito por Esther Lastra ver aquí.