¿Puede un robot manipularte psicologicamente?Un experimento con una IA que manifestaba imploros y ruegos mostró la alta susceptibilidad que muestra el ser humano ante las emociones. La empatía caracteriza por definición al ser humano. Precisamente, uno de los mayores retos en la era de la inteligencia artificial es lograr una IA capaz de comprender y, tal vez, aproximarse a las emociones humanas. Pero, ¿qué ocurriría si, en lugar de padecerlas, fueran capaces de manipularnos a través de ellas? ¿Es la capacidad emocional, rasgo genuinamente humano, una ventaja evolutiva o, más bien, una vulnerabilidad? Un equipo de científicos de la Universidad de Duisburg-Eseen, en Alemania, ha descubierto cómo los humanos podríamos ser susceptibles de una manipulación emocional por parte de un robot. En su investigación, publicada en la revista PLOS ONE, el grupo describe una serie de experimentos llevados a cabo con voluntarios interactuando con robots. Ya en 2007, otro equipo de investigación publicó un estudio llamado “Los ordenadores que ruegan para no morir”. Los voluntarios del estudio tenían la tarea de desconectar un robot, pero no estaban seguros de qué hacer cuando este les imploraba que no se les desconectara. El nuevo estudio estuvo integrado por 89 voluntarios, a cada uno de los cuales se les pedía que desconectaran el robot, a pesar de que este les rogaba que no lo hicieran. Para algunos, la petición se realizó a través, no solo de señales de voz, sino también de gestos y movimientos corporales, para intensificar su demanda. En cambio, para otro grupo control de voluntarios, el robot solo rogó a través de la palabra. Muchos de los voluntarios se negaron a apagar el robot simplemente porque él se lo pidió. Otros manifestaron que sentían pena por el robot. Los resultados indican que los humanos presentan una fuerte tendencia a darle carácter humano a los robots, hasta caer presos de sus demandas, lo que manifiesta que, efectivamente, el humano es capaz de ser manipulado emocionalmente por un robot. Por otra parte, el tipo y la duración de la socialización previa con el robot no pareció tener impacto alguno en la decisión tomada por los voluntarios. Además, cada uno de ellos fue entrevistado después de sus interacciones con el robot; a los que se habían negado a apagar el robot se les preguntó por qué. Los investigadores informan de que muchos de los voluntarios se negaron simplemente porque el robot se lo pidió. Otros manifestaron que sentían pena por el robot o que les preocupaba cometer un error al hacerlo. Chantaje y extorsión de hojalata Quizá más bien deba preocuparnos cómo las IA podrían utilizar estas habilidades para extorsionar y chantajear eficazmente a personas a través de Internet, presumiblemente, con objetivos delictivos. Es el humano el que debe abordar estos retos y los posibles riesgos que conllevan para introducir de manera segura a los robots en la vida diaria de las personas. Volver a Actualizarte |
|