Gigantes de la inteligencia artificial crearon una organización para autorregularse
El denominado "Frontier Model Forum", formado por Google, Microsoft, Anthropic y OpenAI, se encargará de promover el desarrollo responsable de los modelos más sofisticados y de minimizar los riesgos potenciales.
Foto: Pixabay
Google, Microsoft, Anthropic y OpenAI, cuatro empresas que lideran la carrera por la inteligencia artificial (IA) de última generación, anunciaron la creación de una nueva organización profesional para combatir los riesgos asociados a esta tecnología. El denominado "Frontier Model Forum" (Foro del Modelo de Frontera) se encargará de promover el desarrollo responsable de los modelos más sofisticados de IA y de minimizar los riesgos potenciales, se informó en un comunicado de prensa.
El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha preocupación entre autoridades y la sociedad civil. Los miembros del Foro se comprometen a compartir entre ellos, además de con legisladores, investigadores y asociaciones, las mejores prácticas para que estos nuevos sistemas sean menos peligrosos, según consignó la agencia de noticias AFP.
La Unión Europea (UE) está finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas. En Estados Unidos, las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido. Por esa razón, la Casa Blanca insta a los grupos interesados a que ellos mismos garanticen la seguridad de sus productos, en nombre de su "deber moral", como dijo la vicepresidenta estadounidense Kamala Harris a principios de mayo.
Foto AFP
La semana pasada, la administración de Joe Biden se aseguró los "compromisos" de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender "tres principios" en el desarrollo de IA: seguridad, protección y confianza.
Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal.
Quienes lideran estas empresas no niegan los riesgos, al contrario. En junio, Sam Altman, el director de OpenAI, y Demis Hassabis, el líder de DeepMind (Google), instaron a luchar contra "los riesgos de extinción" de la humanidad "vinculados a la IA". Durante una audiencia en el Congreso, Sam Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.
Entre tanto, OpenAI trabaja para lograr una IA denominada "general", con capacidades cognitivas similares a las de los humanos. En una publicación del 6 de julio, la empresa con sede en California dice que se enfoca en los "modelos de frontera" de la IA, "modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública". Advierte que estas capacidades peligrosas podrían "surgir inesperadamente" y que "es difícil evitar realmente que un modelo implementado sea mal utilizado".
Fuente: Télam
inteligencia artificial, regulacion, frontier model forum,
El hilo que une a la UNCUYO con el Nobel de Química en el deslumbrante mundo de la IA
El conocimiento validado por décadas de experimentos se potenció a un nivel inimaginable con la ...
31 DE OCTUBRE DE 2024
Revelan un nuevo blanco terapéutico para el tratamiento de cánceres de sangre
El estudio, llevado adelante por el investigador del Conicet Gabriel Rabinovich y científicos de la ...
23 DE OCTUBRE DE 2024
“Si no hacemos nada, vamos a llevar al planeta a su sexta extinción masiva”
Melisa Olave, investigadora del Iadiza-Conicet, no para de recibir premios. Acaba de ser ...
10 DE OCTUBRE DE 2024