En las IA predominan sesgos de género y raciales porque así son entrenadas
Especialistas aseguran que es primordial impulsar el desarrollo de IA más equitativas, que empoderen a toda la sociedad por igual y que sean capaces de reflejar y respetar las diferencias en todas sus formas.
Es necesario garantizar que la tecnología construida sea equitativa y sirva a todos, sin excluir a nadie. Foto: Freepik
Los denominados “Modelos de Lenguaje de Gran Escala” (LLM, por sus siglas en inglés), como los que usan ChatGPT o Gemini, están revolucionando la comunicación y el acceso a la información. Sin embargo, estos avances tecnológicos enfrentan importantes desafíos, especialmente para evitar sesgos que afectan a colectivos como la comunidad LGTBIQ+ y otros grupos diversos. El informe The AI Index Report 2024 de la Universidad de Stanford y el reciente reporte de la Unesco destacan que los datos utilizados para entrenar a las inteligencias artificiales (IA) contienen sesgos de género y raciales. Esta realidad puede perpetuar estereotipos y excluir una amplia variedad de voces.
En este contexto, surge la preocupación de cómo trasladar el compromiso de justicia social y derechos humanos al ámbito de la AI para asegurar que los LLM sean representativos de la sociedad en su totalidad. En este caso, es importante fomentar la diversidad en el mercado laboral de la informática y, especialmente, en el desarrollo de los sistemas de inteligencia artificial para ayudar a no generar nuevas brechas y tratar de subsanar las ya existentes. Para ello, es necesario trabajar con personas de distintos orígenes y así promover soluciones innovadoras y efectivas para los desafíos sociales que se avecinan.
Según Jorge Lukowski, director global de Marketing y Comunicación de Neoris, una empresa que se dedica a la consultoría tecnológica (IT) para América Latina, es crucial que los modelos de lenguaje y las IA sean auditados y revisados constantemente para identificar y mitigar sesgos. Los prejuicios en los conjuntos de datos pueden llevar a resultados problemáticos si no se abordan adecuadamente, como la asociación de ciertos roles profesionales o emociones con géneros específicos, lo que puede extenderse a la orientación sexual y a la identidad de género.
Los datos utilizados para entrenar a las inteligencias artificiales (IA) contienen sesgos de género y raciales
La amenaza de las "alucinaciones" en las IA
Las "alucinaciones" en las inteligencias artificiales representan un grave problema, ya que generan respuestas sintáctica y semánticamente correctas, pero desconectadas de la realidad. Un ejemplo reciente es el de Google, que pausó la creación de imágenes de personas con IA después de que se descubriera que el sistema generaba resultados sesgados, como cuando se pedía una imagen del Papa y arrojaba un hombre negro y una mujer india.
Otro caso significativo es cuando los modelos generan incorrectamente citas y afirmaciones sobre cuestiones LGTBIQ+. Por ejemplo, un modelo podría afirmar erróneamente que una figura pública, conocida por su apoyo a los derechos LGTBIQ+, hace declaraciones negativas sobre la comunidad, debido a la falta de datos diversos y precisos en su entrenamiento.
Para Lukowski, estas alucinaciones son especialmente preocupantes porque facilitan la creación de contenido falso con fines políticos y maliciosos, como noticias falsas o fotografías manipuladas. El temor es que el futuro de internet esté lleno de verdades sin fundamento.
Las "alucinaciones" en las IA representan un grave problema, ya que generan respuestas desconectadas de la realidad
Lukowski subraya que es esencial que las empresas tecnológicas encuentren un equilibrio entre precisión e inclusión. Las organizaciones deben programar sus modelos de IA de manera de evitar imprecisiones y sesgos, y utilizar diversas fuentes en el entrenamiento de los LLM para asegurar una representación justa de todas las identidades.
La lucha por la justicia algorítmica es una extensión de la lucha por los derechos humanos. Por eso, Lukowski asegura que es necesario garantizar que la tecnología construida sea equitativa y sirva a todos, sin excluir a nadie. Finalmente, recuerda que formar a desarrolladores y desarrolladoras en prácticas inclusivas es vital, y afirma que existen herramientas y recursos disponibles para ayudar a las empresas a identificar y abordar prejuicios en sus modelos de lenguaje.
Fuente: Neoris, empresa de consultoría IT para América Latina
inteligencia artificial, ia, sesgos, prejuicios,
Autos eléctricos: el panorama en Argentina y el caso del camión mendocino
Cuántas unidades sustentables hay en el país, qué reclaman desde el sector para impulsar el mercado ...
04 DE NOVIEMBRE DE 2024
En Mendoza, solo 4 de cada 10 estudiantes llega en tiempo y forma a sexto grado
El 93% de alumnas y alumnos de Mendoza que ingresa a primer grado llega a sexto a tiempo, pero solo ...
04 DE NOVIEMBRE DE 2024
Clase de Astronomía y Astrofísica para apoyar las universidades públicas y a la ciencia
Belén Planes, perteneciente al Conicet y a la UNCUYO, nos explica de qué se trata esta propuesta ...
04 DE NOVIEMBRE DE 2024