La idea de regular la inteligencia artificial avanza sin coordinación global
Distintos gobiernos buscan crear un marco jurídico ante la rápida evolución de esta tecnología y sus alcances.
Foto: Télam
Distintos gobiernos avanzaron esta semana con la idea de regular la inteligencia artificial (IA) ante sus efectos en temas como seguridad, democracia, desinformación y el mercado laboral. Sin embargo, la propia creación de un marco jurídico supone un desafío por la rápida evolución de esta tecnología, sus alcances y los desacuerdos entre países para alcanzar una convención común.
Un intento de lograr una forma de regulación intercontinental fue anunciado el miércoles pasado por la Unión Europea (UE) y Estados Unidos, que "muy pronto" presentarán el borrador de un "código de conducta" para que las empresas del sector suscriban de forma voluntaria, con la idea de que "todos los países de ideas afines" también lo adopten. Esta falta de obligatoriedad podría restarle peso, aunque existe un antecedente de la voluntad de los propios actores del sector sobre algún tipo de intervención: a fines de marzo, un conjunto de académicos, expertos y empresarios, entre ellos Elon Musk (CEO de SpaceX, Tesla y Twitter) y Steve Wozniak (cofundador de Apple), pidieron una moratoria de seis meses en la investigación sobre IA al advertir "grandes riesgos para la humanidad".
"Lo interesante del discurso actual en torno a la regulación es que, normalmente, los gobiernos y las grandes empresas tecnológicas adoptaron puntos de vista opuestos. Lo que es único en el caso de la IA (en particular ChatGPT) es que expertos de muchas organizaciones están liderando el llamamiento a poner una pausa", explicó Stan Karanasios, profesor de Sistemas de Información en la Universidad de Queensland (Australia).
"Los gobiernos deberían aprovechar esta oportunidad para desarrollar una regulación", apuntó el académico, que se dedica a estudiar cómo la tecnología afecta a las organizaciones y a la sociedad.
En ese marco, la UE prepara una serie de reglas de cumplimiento obligatorio que, como muy pronto, comenzarían a regir a finales de 2025, una fecha lejana para un sector en constante evolución que, si bien está dominado por gigantes como Microsoft (principal accionista de OpenAI, la firma que opera ChatGPT), Meta o Google, está poblado por nuevas plataformas que aparecen cada día gracias al código abierto.
China también tiene proyectos de regulación, en especial, una "inspección de seguridad" de las herramientas de la IA. El presidente Xi Jinping encabezó esta semana un encuentro del Partido Comunista en el que se debatió la necesidad de "dedicar esfuerzos para salvaguardar la seguridad política y mejorar la gobernanza de la seguridad de los datos de Internet y la IA", consignó la agencia de noticias local Xinhua.
En Costa Rica, en tanto, diputados de diferentes partidos presentaron el jueves pasado un proyecto de ley para regular la IA, con la curiosidad de que fue redactado a través de ChatGPT. "La tecnología es un instrumento al servicio del ser humano y, como tal, debemos controlarlo", indicó la legisladora Vanessa Castro, una de las impulsoras del proyecto.
En Brasil también se presentó una iniciativa en el mismo sentido. Canadá fue pionera en tratar de generar una normativa, que también está en debate en Reino Unido, Australia o Japón, mientras que los líderes del G7, reunidos hace dos semanas en Hiroshima, pidieron "avanzar con los debates para lograr una IA digna de confianza, en consonancia con los valores democráticos compartidos".
De fondo, está el primer marco ético sobre inteligencia artificial aprobado en la Unesco en noviembre de 2021, con una serie de recomendaciones a sus 193 Estados miembros para aprovechar las ventajas de la tecnología y reducir los riesgos que conlleva. Sin embargo, más allá de este acuerdo común, la aparición de distintas propuestas en varias latitudes ya forman de por sí una barrera para imponer normas efectivas ante una tecnología de alcance planetario. "Es necesario un enfoque más armonizado a escala mundial, pero está claro que llegar a un consenso global será difícil", apuntó Karanasios.
Otro obstáculo son los puntos a regular, ya que "los expertos no se ponen de acuerdo sobre los peligros" de la IA, aunque el académico enumeró algunas cuestiones que deberían incluirse como seguridad, privacidad, desinformación, robo de conocimientos y perturbaciones del mercado laboral. En ese sentido, Michèle Finck, profesora en la cátedra de Derecho e Inteligencia Artificial en la Universidad de Tubinga (Alemania), afirmó que es "difícil responder en abstracto" cuáles son las cuestiones de la IA que deberían regularse.
"Es una tecnología de uso general que puede adoptar la forma de un 'software' o integrarse en otros productos. Como tal, puede aplicarse de muchas maneras diferentes: puede ser un robot quirúrgico, un 'software' que generar 'deepfakes' (archivos de video, imagen o voz que fueron manipulados para parecer hiperrealistas, pero son falsos) o una herramienta que ofrezca canciones basadas en preferencias musicales personales", apuntó.
Y contrapuso: "Mientras una deepfake que se difunde a gran escala a través de las redes sociales puede provocar disturbios políticos y alterar los procesos democráticos (por ejemplo, imágenes comprometedoras de políticos antes de unas elecciones), en el caso de los robots quirúrgicos, es algo que debería fomentarse, si permiten llevar a cabo procedimientos que actualmente no pueden realizarse". Por otro lado, relativizó la situación actual al afirmar que la IA "no opera en un vacío legal", ya que debe regirse por normativas existentes, como las leyes de protección de datos personales (utilizadas por Italia para prohibir temporalmente ChatGPT), de responsabilidad por productos defectuosos (en el caso de los dispositivos médicos) o normas de difamación (para los perjuicios que puede generar una deepfake).
Más allá de esto, existe otro desafío para toda regulación, que es el de no quedar obsoleta ante el constante cambio tecnológico. "El tiempo es sin duda un problema, ya que la IA sigue evolucionando a gran velocidad. Aunque esto es un reto, no significa que la regulación sea imposible. El proyecto de ley de la UE, por ejemplo, es un intento de una definición general de la IA, que remite a una lista de tecnologías específicas que puede actualizarse con el tiempo", afirmó Finck.
Karanasios no comparte esa mirada: "El lapso de tiempo entre la acción gubernamental y el rápido ritmo de los cambios convierte la regulación post-hoc (posterior a los hechos) en un tigre sin dientes. Para entonces, la IA y las empresas que la desarrollan son demasiado poderosas y están demasiado integradas en la sociedad". "La creación de regulación una vez que estos sistemas de IA estén plenamente integrados en la sociedad no será eficaz. Lo hemos aprendido con el caso de plataformas digitales como Facebook, etc. Es una conversación que tenemos que tener ahora como sociedad", concluyó.
Fuente: Camil Straschnoy para Télam
inteligencia artificial, regulación, gobiernos, problemas, 2023,
La técnica que ganó el Nobel de Química y se aplica en la UNCUYO
Especialistas del Conicet diseñaron con IA una toxina botulínica que podría tener aplicaciones ...
07 DE NOVIEMBRE DE 2024
El hilo que une a la UNCUYO con el Nobel de Química en el deslumbrante mundo de la IA
El conocimiento validado por décadas de experimentos se potenció a un nivel inimaginable con la ...
31 DE OCTUBRE DE 2024
Revelan un nuevo blanco terapéutico para el tratamiento de cánceres de sangre
El estudio, llevado adelante por el investigador del Conicet Gabriel Rabinovich y científicos de la ...
23 DE OCTUBRE DE 2024