OpenAI dice que su tecnología es segura, pero que un mal uso de ChatGPT podría causar «un daño significativo al mundo»
"Creemos que es esencial desarrollar regulaciones que incentiven la seguridad de la IA y, al mismo tiempo, garantizar que las personas puedan acceder a los muchos beneficios de la tecnología", ha matizado, según un documento recogido en la página web de esta institución.
El CEO de OpenAI, Sam Altman, ha mostrado su preocupación porque su sistema ChatGPT pueda causar «un daño significativo al mundo» y considera que un mal uso de esta tecnología, a falta de una normativa sólida que lo regule, podría tener consecuencias catastróficas.
Así lo ha expresado el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, que ha comparecido ante el Subcomité de Privacidad, Tecnología y Ley del Comité del Poder Judicial del Senado de Estados Unidos para solicitar a este organismo una regulación en el uso de sistemas como su ‘chatbot’.
Los sistemas de Inteligencia Artificial (IA) generativa son objetivo de críticas por autoridades y usuarios porque actores maliciosos hacen uso de ellos para llevar a cabo campañas de ‘phishing’ o difundir mensajes de odio, entre otras actividades dañinas y delictivas.
Debido a la preocupación que ha generado el mal uso de esta tecnología, el director ejecutivo de la empresa que desarrolla ChatGPT, Sam Altman, ha comparecido ante la cámara alta del Congreso estadounidense para expresar su voluntad de trabajar con legisladores e instituciones a fin a abordar los riesgos que presenta este ‘chatbot’.
«Creemos que es esencial desarrollar regulaciones que incentiven la seguridad de la IA y, al mismo tiempo, garantizar que las personas puedan acceder a los muchos beneficios de la tecnología», ha matizado, según un documento recogido en la página web de esta institución.
En primer lugar, Altman ha defendido que OpenAI sigue siendo una organización dedicada a la investigación y desarrollo de proyectos de IA sin fines de lucro y con una junta directiva mayoritariamente independiente.
Con ello, ha recordado que los modelos de IA que desarrolla «están disponibles de forma gratuita en cualquier parte del mundo» y que su misión «es garantizar que los sistemas de IA se construyan, implementen y utilicen de manera segura y beneficiosa».
Para ello, la organización realiza «pruebas exhaustivas, contrata a expertos externos» y mejora el comportamiento de este modelo con técnicas como el aprendizaje por refuerzo (RLHF, por sus siglas en inglés).
Tras emplear estos filtros, reduce «información inexacta, conocida como ‘alucinaciones’, contenido de odio, desinformación e información relacionada con la proliferación de armas», así como texto de carácter sexual.
Además de comentar que en este tiempo ha ido mejorando las capacidades de ChatGP hasta llegar a su última iteración, GPT-4, «que tiene un 40 por ciento más de probabilidades de ofrecer contenido fáctico», ha asegurado que ha lanzado iniciativas para hacer más segura esta IA, como la creación de un programa que contribuye a usuarios que detectan errores en su sistema, así como otro de subvenciones que financiará a aquellos que lleven a cabo investigaciones de seguridad.
A pesar de tener el objetivo de seguir mejorando su servicio, Altman ha insistido en que las mejoras que esta organización lleve a cabo internamente con su tecnología deben estar respaldadas por una normativa que regule su uso debido a que la IA generativa «podría causar un daño significativo al mundo».
«Si esta sitación empeora, todo podría salir bastante mal y queremos hablar al respecto, trabajar con el Gobierno para que esto no suceda», ha explicado el CEO en una audiencia presidida por el senador Richard Blumenthal.
Conviene recordar que esta no es la primera vez que Altman expresa su intención de proteger a los usuarios de esta tecnología, ya que hace unos días participó en un congreso sobre IA en la Casa Blanca (Estados unidos) en defensa de los sistemas de derechos de autor.
Su testimonio tuvo lugar poco después de que Universal Music Group, uno de los sellos más grandes de la industria de la música, instara a plataformas en ‘streaming como Apple Music o Spotify a bloquear el entrenamiento de modelos de IA, debido a que con ello estarían infringiendo el ‘copyright’ de los artistas de sus catálogos.
Spotify, de hecho, indicó hace unos días que había eliminado «decenas de miles de canciones» generadas por esta tecnología, motivo por el que habría reforzado su sistema de vigilancia para detectar este tipo de archivos y actividades fraudulentas.
El traspaso de límites en materia de derechos de autor también ha llegado a otras disciplinas culturales, como el arte, ya que artistas han demandado a compañías dedicadas al arte digital -Stability AI, DeviantArt y Midjourney-, por infringir derechos de autor en el desarrollo de obras de arte creadas por la herramienta de IA Stable Difussion. (Portaltic/EP)