OpenAI, Google, Microsoft y Anthropic se unen para autorregular el desarrollo de los modelos de IA
Las empresas se proponen avanzar en la seguridad, identificar mejoras para los modelos de frotera y compartir sus conocimientos.
OpenAI, Anthropic, Google y Microsoft se unieron para asegurar el desarrollo seguro y responsable de los denominados modelos de inteligencia artificial (IA) de frontera, esto con el objetivo de minimizar los potenciales riesgos que puedan suponer para el individuo y la sociedad.
Frontier Model Forum nace con el propósito de promover el desarrollo responsable de los modelos de frontera, que describen como aquellos «modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas».
Detrás de esta organización se encuentran las empresas pertenecientes al panorama actual de la inteligencia artificial avanzada, OpenAI, Anthropic, Google y Microsoft. Las cuatro se comprometen a colaborar en el desarrollo seguro de estos modelos.
Para ello, establecieron tres puntos sobre los que versará su actuación: avanzar en la investigación de la seguridad de la IA para minimizar sus potenciales riesgos, identificar las mejoras prácticas de seguridad para los modelos de frontera, y compartir sus conocimientos con los legisladores, los académicos y la sociedad civil.
También se propusieron apoyar el desarrollo de aplicaciones de esta tecnología que ayuden a abordar los mayores desafíos de la sociedad, como son la mitigación y adaptación al cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.
Además, establecerán en los próximos meses un Consejo asesor que ayudará a guiar la estrategia y prioridades de los integrantes de esta organización profesional, como informan en una nota de prensa conjunta (Portaltic/EP).