Inteligencia Artificial: cuanto más avanzada y parecida a un humano es, más tiende a mentir
Cuanto más sofisticados son los modelos de lenguaje, más se parecen a los humanos y pueden "simular mejor el tener conocimientos" que no tienen.
Cada vez más potente, cada vez más propensa a la mentira
El avance de la inteligencia artificial (IA) ha superado rápidamente las expectativas humanas, y con él surgen nuevos desafíos que requieren soluciones urgentes. Aunque las leyes y regulaciones intentan ponerse al día, la evolución de la IA sigue generando inquietud por la rapidez con que está integrándose en nuestras vidas y trabajos.
Un reciente estudio publicado en Nature ha revelado un aspecto preocupante de las IA: a medida que se vuelven más sofisticadas, también se hacen más propensas a proporcionar respuestas incorrectas de manera convincente.
La sofisticación trae consigo imprecisiones
El estudio analizó algunos de los modelos de lenguaje más avanzados de la industria, como GPT de OpenAI, LLaMA de Meta y BLOOM de BigScience. Estos modelos están diseñados para proporcionar respuestas cada vez más precisas a preguntas complejas, pero paradójicamente, también son más propensos a cometer errores en preguntas simples. José Hernández-Orallo, experto del Instituto Valenciano de Investigación en Inteligencia Artificial, coautor del estudio, señala que la creciente capacidad de las IA para "simular conocimiento" puede hacer que inventen hechos o respuestas falsas cuando no tienen suficiente información precisa.
A medida que los chatbots ganan habilidades, ofrecen respuestas que parecen convincentes, incluso cuando son incorrectas. Esto plantea un problema grave, ya que los usuarios perciben estas respuestas como fiables, aunque el nivel de precisión real, según el estudio, está en torno al 60% en preguntas sencillas. Este margen de error resulta preocupante, especialmente cuando las IA se emplean en campos que requieren altos niveles de precisión.
¿Debe la IA decir "no sé"?
Una de las posibles soluciones planteadas por los investigadores es que los modelos de lenguaje podrían ser programados para abstenerse de responder cuando no estén seguros de la respuesta. En lugar de inventar una respuesta incorrecta, la IA debería admitir su falta de conocimiento en determinadas áreas. Sin embargo, esta opción presenta desafíos comerciales.
En una industria que busca posicionarse como líder, un chatbot que admite no saber podría ser percibido como limitado, afectando su competitividad frente a otros que, aun a riesgo de equivocarse, proporcionen una respuesta en cualquier situación. Este dilema resalta la tensión entre la precisión y el éxito comercial en el desarrollo de IA, un desafío que los expertos tendrán que seguir abordando a medida que estas tecnologías avanzan.