ChatGPT, la inteligencia artificial y un debate abierto sobre cuánto puede modificar nuestra vida
El uso público del chatbot del que todos hablan abrió nuevamente la discusión sobre cómo la tecnología avanza sin restricciones, a una velocidad que nadie puede prever. Cómo funciona esta IA y qué alcances tiene.
ChatGPT es el chatbob de IA que está sorprendiendo al mundo. Fuente: pexels.com
La apertura al público en general a finales del año pasado de ChatGPT, uno de los chatbot más avanzados de inteligencia artificial (IA) que puede redactar desde ensayos académicos hasta crear una sinfonía, trajo un nuevo debate sobre el alcance de estos programas conversacionales que buscan imitar las capacidades humanas por el sesgo de sus datos, el manejo de la tecnología en pocas empresas y el impacto en la educación y el trabajo.
La empresa Open AI creó una web en noviembre que permitió a los usuarios experimentar con ChatGPT, por lo que en pocos días logró que millones de personas interactúen con esta inteligencia artificial, que funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.
Así, los usuarios fueron compartiendo en redes sociales los desafíos que le dieron al chatbot: resolver un problema de programación, crear un ensayo académico comparando dos teorías, escribir el guión de un juego o crear una partitura musical.
Lo que más sorprendió de este chat de IA fue la capacidad de dar respuestas acertadas y completas, con una gran cantidad de vocabulario e información y tomando las palabras en contexto.
First #ChatGPT answer which made me pause. pic.twitter.com/nbc9uRoWlA
— Kevin Schawinski (@kevinschawinski)
Sin embargo, especialistas en la temática aseguraron que hay que analizar la veracidad y el sesgo de los datos que brinda y llamaron a "no obnubilarse" por esta tecnología.
"Llamó mucho la atención por su desempeño, resuelve un montón de tareas. Está entrenado para conversar con seres humanos y va aprendiendo. Tiene conciencia del contexto y genera 'entendimiento', pero esto es una metáfora para referirnos a una computadora ya que es sólo una capacidad que tiene el cerebro humano", dijo a Télam Fernando Schapachnik, director ejecutivo de la Fundación Sadosky, que está bajo la órbita del Ministerio de Ciencia, Tecnología e Innovación.
Para Schapachnik, "esta IA se diferencia de modelos anteriores porque nadie le dijo nada previo, nadie escribió las reglas ad hoc. Acá se le dio una serie de datos desestructurados y el sistema hizo lo que nosotros llamamos ´aprender´: infirió cómo era un contrato o una obra de teatro y construyó automáticamente las reglas".
"Pero todavía no se conocen todos los detalles de cómo se está implementado", añadió el especialista que detalló los interrogantes con respecto al funcionamiento de esta IA: "No sabemos si los datos que brinda están protegidos por licencias ni tampoco qué sesgos tiene con respecto a la moderación de los contenidos", describió.
Además, el hecho de que figure en una web para todo el mundo "es una cuestión temporal; una campaña para difundirlo, para mejorar el modelo, pero no creo que siga como una versión gratuita en el futuro", sostuvo.
Decir "la verdad"
Por su parte, Laura Alonso Alemany, profesora de Ciencias de la Computación de la Universidad Nacional de Córdoba (UNC) e integrante de la Fundacion Vía Libre, llamó a "no obnubilarse" con las capacidades de esta tecnología.
"Ya veníamos madurando tecnologías así y esta es un poco mejor que las demás. Está armada con datos que nosotros pusimos en la web, que nosotros seguimos alimentando con nuestras preguntas. Estamos enseñándole. Puede hacer cosas fabulosas, pero de la misma forma puede errar", aseveró en diálogo con Télam.
Para Alonso Alemany "el peligro está en que la gente piense que lo que dicen estas tecnologías es la única verdad" y alertó que los chats de IA "pueden normalizar muchas cosas que como sociedad estamos dejando atrás como el racismo o la xenofobia porque están trabajando con datos históricos".
La proliferación de este tipo de programas trae un nuevo debate acerca de las consecuencias que tendría la aplicación masiva de estas tecnologías sobre los puestos de trabajo y la educación.
Schapachnik consideró que se trata de una "amenaza" para el mundo de los trabajadores ya que "hay más trabajos automatizables de los que creíamos, las tareas más repetitivas son las que peligran".
"A nivel del trabajo, estos modelos van a ayudar a sacarse de encima las cuestiones más mecánicas, las más repetitivas, pero el problema es que va a haber gente que se va a quedar sin empleo. Por cada trabajo más creativo e interesante se van a perder otros 10", aseguró Alonso Alemany.
La investigadora de la UNC aseveró que, con respecto a la educación, "va a haber problemas de evaluación, ya que las instituciones hoy en día no tienen ni el tiempo ni la formación para adaptarse a estas nuevas tecnologías, lo cual es un riesgo".
Riesgos en términos de desinformación
Según publicó chequeado.com, una de las desventajas del ChatGPT es que puede producir desinformación sin intención. La propia empresa aclara en las preguntas y respuestas frecuentes de su página web que el ChatGPT no está conectado a internet, lo que ocasionalmente puede producir respuestas incorrectas y desactualizadas. Tiene conocimiento limitado del mundo después de 2021 y puede, ocasionalmente, producir respuestas dañinas o sesgadas. Es por eso que OpenAI recomienda verificar con otras fuentes las respuestas de la herramienta.
Javier Pallero, director de Políticas Públicas de la organización internacional Access Now, señaló a Chequeado que el chatbot “también puede tener falta de moderación, información mal contextualizada a propósito o maliciosamente contextualizada para generar confusión, aunque no sea en los hechos errónea”.
Por otro lado, este medio pudo comprobar que el chatbot no aclara la fuente de la información que brinda, lo que hace imposible contrastar las respuestas con la fuente original. “Al ser una herramienta tan directa, adaptable y familiar -que es una ventaja- no hay mucho contexto, no hay incentivo para que la persona que lo lee busque información extra, es mucho más fácil creer la primera respuesta que muestra. Al menos en un buscador, uno encuentra en la primera página más de un resultado. Acá es un solo resultado y adiós”, manifestó Pallero.
A pesar de los intentos de OpenAI por evitar contestar ciertos temas, en algunas oportunidades el chat contesta con respuestas sesgadas o dañinas. Esto no es la primera vez que ocurre. El grupo Meta recientemente removió una versión preliminar de su chatbot, Galactica, porque repetidamente generaba información sesgada e incorrecta.
“Estos modelos probablemente tengan sesgos no deseados, porque aprenden de datos que están sesgados. El riesgo enorme es que el uso masivo de estas herramientas amplíe y perpetúe esos sesgos aprendidos de los datos. Este no es un problema exclusivo del ChatGPT ni del procesamiento de lenguaje natural (PNL, por sus siglas en inglés) sino que aplica a muchas herramientas modernas de inteligencia artificial”, reflexionó Ferrer.
Según la especialista, para evitar la proliferación de herramientas de PNL sesgadas o con otros problemas es necesario un proceso de validación o certificación, independiente, legislado y regulado por el Estado. “Para eso, entre otras cosas, hace falta entender cómo evaluar estos modelos para poder certificarlos, una tarea nada fácil y no resuelta”, concluyó.
IA en pocas manos
Por último, los especialistas reflexionaron sobre la concentración que tiene el mercado de la IA, ya que Microsoft invirtió más de 1.000 millones de dólares en OpenAI para el desarrollo de ChatGPT y otros productos.
"Es un desarrollo que hace una empresa privada que busca un lucro, te lo dejan usar un ratito. Quieren que nos hagamos dependientes de una tecnología que nos la van a cobrar", aseguró Alonso Alemany y criticó que pocas compañías manejen esta tecnología.
"Hay pocas empresas que puedan desarrollar estos modelos de IA, que están basados en grandes cantidades datos y cálculos. Mientras más dependientes somos, más concentrado está", aseveró.
En la misma línea, Schapachnik resaltó que la IA utiliza "un enorme centros de cómputos que consumen muchísima energía y eso cuesta dinero; no hay que pensar en altruismo en esta cuestión porque hay un inversión muy fuerte".
Fuente: Télam - chequedo.com
chatgpt, inteligencia artificial, tecnología,
Autos eléctricos: el panorama en Argentina y el caso del camión mendocino
Cuántas unidades sustentables hay en el país, qué reclaman desde el sector para impulsar el mercado ...
04 DE NOVIEMBRE DE 2024
En Mendoza, solo 4 de cada 10 estudiantes llega en tiempo y forma a sexto grado
El 93% de alumnas y alumnos de Mendoza que ingresa a primer grado llega a sexto a tiempo, pero solo ...
04 DE NOVIEMBRE DE 2024
Clase de Astronomía y Astrofísica para apoyar las universidades públicas y a la ciencia
Belén Planes, perteneciente al Conicet y a la UNCUYO, nos explica de qué se trata esta propuesta ...
04 DE NOVIEMBRE DE 2024