Tecnología

La Inteligencia Artificial podría cambiar el comportamiento de las personas ante la mentira

65ymás

Foto: BigStock

Domingo 7 de julio de 2024

6 minutos

El hallazgo proporciona información sobre las implicaciones sociales del uso de estos sistemas

La Inteligencia Artificial podría cambiar el comportamiento de las personas ante la mentira
65ymás

Foto: BigStock

Domingo 7 de julio de 2024

6 minutos

Aunque las personas mienten mucho, normalmente se abstienen de acusar a otros de mentir debido a las normas sociales que rodean las acusaciones falsas y la cortesía. Pero la Inteligencia Artificial (IA) pronto podría cambiar las reglas.

En un estudio publicado en la revista iScience por investigadores de la Universidad Duisburg-Essen en Alemania se demuestra que es mucho más probable que las personas acusen a otras de mentir cuando una IA hace una acusación. El hallazgo proporciona información sobre las implicaciones sociales del uso de sistemas de inteligencia artificial para la detección de mentiras, lo que podría informar a los responsables políticos a la hora de implementar tecnologías similares.

"Nuestra sociedad tiene normas sólidas y bien establecidas sobre las acusaciones de mentira", explica el autor principal Nils Köbis, científico del comportamiento de la Universidad Duisburg-Essen. "Se necesitaría mucho coraje y evidencia para acusar abiertamente a otros de mentir. Pero nuestro estudio muestra que la IA podría convertirse en una excusa para que las personas se escondan convenientemente detrás, para evitar ser consideradas responsables de las consecuencias de las acusaciones".

La sociedad humana ha funcionado durante mucho tiempo basándose en la teoría de la verdad-predeterminado, que explica que las personas generalmente asumen que lo que escuchan es verdad. Debido a esta tendencia a confiar en los demás, los humanos somos terribles para detectar mentiras. Investigaciones anteriores han demostrado que las personas no obtienen mejores resultados que el azar cuando intentan detectar mentiras.

¿La IA cambiará las normas y comportamientos sociales establecidos?

Köbis y su equipo querían saber si la presencia de la IA cambiaría las normas y comportamientos sociales establecidos sobre la formulación de acusaciones. Para investigar, el equipo pidió a 986 personas que escribieran una descripción verdadera y otra falsa de lo que planeaban hacer el próximo fin de semana. Luego, el equipo entrenó un algoritmo con los datos para desarrollar un modelo de inteligencia artificial que fuera capaz de identificar correctamente afirmaciones verdaderas y falsas el 66% de las veces, una precisión significativamente mayor que la que puede lograr una persona promedio.

 

Mentira

 

A continuación, el equipo reclutó a más de 2.000 personas para que fueran jueces que leyeran una declaración y decidieran si era verdadera o falsa. Los investigadores dividieron a los participantes en cuatro grupos: "de referencia", "forzados", "bloqueados" y "elección".

En el grupo de referencia, los participantes respondieron verdadero o falso sin ayuda de la IA. En el grupo forzado, los participantes siempre recibieron una predicción de la IA antes de emitir su propio juicio. En los grupos bloqueados y de elección, los participantes tenían la opción de recibir una predicción generada por la IA. Las personas que solicitaron la predicción al grupo bloqueado no la recibirían, mientras que las del grupo de elección sí la recibirían.

El equipo de investigación encontró que los participantes en el grupo de referencia tenían una precisión del 46% al identificar las afirmaciones de ser verdaderas o falsas. Solo el 19% de las personas del grupo acusaron de falsas las declaraciones que leyeron, aunque sabían que el 50% de las declaraciones eran falsas. Esto confirma que la gente tiende a abstenerse de acusar a otros de mentir.

En el grupo forzado en el que los participantes recibieron una predicción de IA independientemente de si la querían o no, más de un tercio de los participantes acusaron las afirmaciones de ser falsas. La tasa es significativamente mayor que la de los grupos de referencia y de bloqueo que no recibieron predicciones de IA.

Cuando la IA predijo que una afirmación era cierta, solo el 13% de los participantes dijo que la afirmación era falsa. Sin embargo, cuando la IA predijo que una afirmación era falsa, más del 40% de los participantes acusó la afirmación de ser falsa. Además, entre los participantes que solicitaron y recibieron una predicción de la IA, un abrumador 84% adoptó la predicción e hizo acusaciones cuando la IA dijo que la afirmación era falsa.

Las personas cambian sus comportamientos al tener a mano una tecnología

"Esto demuestra que una vez que las personas tengan a mano un algoritmo de este tipo, confiarán en él y tal vez cambiarán sus comportamientos. Si el algoritmo dice que algo es mentira, la gente está dispuesta a aceptarlo. Esto es bastante alarmante y demuestra que debemos tener mucho cuidado con esta tecnología", afirma Köbis.

Curiosamente, la gente parecía reacia a utilizar la IA como herramienta de detección de mentiras. En los grupos bloqueados y de elección, solo un tercio de los participantes solicitaron la predicción de la IA.

El resultado sorprendió al equipo, porque los investigadores habían dicho a los participantes de antemano que el algoritmo podía detectar mentiras mejor que los humanos. "Podría deberse a este efecto tan fuerte que hemos visto en varios estudios que las personas tienen demasiada confianza en su capacidad para detectar mentiras, a pesar de que los humanos son realmente malos en eso", plantea Köbis.

La IA es conocida por cometer errores frecuentes y reforzar los prejuicios. Teniendo en cuenta los hallazgos, Köbis sugiere que los responsables políticos deberían reconsiderar el uso de la tecnología en asuntos importantes y delicados como la concesión de asilo en las fronteras. "Hay un gran revuelo en torno a la IA y mucha gente cree que estos algoritmos son realmente potentes e incluso objetivos. Me preocupa mucho que esto haga que la gente dependa demasiado de él, incluso cuando no funciona tan bien", concluye Köbis.

Sobre el autor:

65ymás

… saber más sobre el autor