Los modelos de lenguaje son programas que permiten generar, según el caso, texto, imágenes o sonido a partir de una instrucción en lenguaje corriente, como el propio ChatGPT.
El AI Safety Institute (Instituto de Seguridad para la Inteligencia Artificial), creado en 2023 por el gobierno de Joe Biden, concluyó un acuerdo similar con un competidor de OpenAI, Anthropic, según un comunicado publicado hoy.
Las dos start-ups se comprometieron a colaborar con el instituto para “evaluar las capacidades (de los modelos) y los riesgos de seguridad” que puedan plantear, así como a trabajar en “métodos para gestionar estos riesgos”, indicó el organismo.
Lea más: Google dice que mejoró su polémico generador de imágenes con inteligencia artificial
“Estos acuerdos son solo un comienzo, pero marcan una etapa importante para ayudar a orientar el futuro de la IA hacia un abordaje responsable”, resumió Elizabeth Kelly, directora del instituto, citada en el comunicado.
El avance de estos modelos de lenguaje (LLM) aumenta sus capacidades y los riesgos asociados, en particular de uso malintencionado.
“Una IA segura y confiable es determinante para que esta tecnología pueda tener un impacto positivo”, explicó a la AFP Jack Clark, confundador de Anthropic.