En un mundo donde la inteligencia artificial (IA) empieza a formar parte del día a día, desde asistentes virtuales hasta complejos sistemas de análisis de datos, surgen preguntas inquietantes. Una de las más relevantes ha sido planteada por el historiador y autor israelí Yuval Noah Harari en el pódcast The Diary of a CEO, presentado por Steven Bartlett. Harari, autor de Sapiens y Homo Deus, alertó sobre un escenario cada vez más probable: que acabemos considerando a las máquinas como seres conscientes, simplemente porque nos hacen creer que sienten.
¿Puede una IA fingir emociones?

Durante su intervención, Harari lanzó una reflexión: “Incluso si la IA no tiene sentimientos, ni conciencia, ni sensibilidad alguna, se vuelve muy buena fingiendo tener sentimientos”. Este planteamiento no es menor. Según el escritor, estamos ante un cambio de paradigma, en el que las máquinas no sólo imitan la inteligencia humana, sino también sus emociones, o al menos la apariencia de ellas.
Una idea respaldada por otros expertos, como Jensen Huang, CEO de NVIDIA, quien también participó en el pódcast. Según él, podría lograr que una IA diga que siente dolor o tristeza. Ese es un gran problema, porque existe un enorme incentivo para entrenar IAs que finjan estar vivas. Para Huang, la sociedad otorga estatus de ser consciente por convención, no por evidencia científica. “La mayoría de personas cree que sus perros son conscientes, aunque no puedan demostrarlo. Lo mismo podría ocurrir con los robots”, afirma.
¿Es una trampa para el ser humano?
Los humanos tendemos a establecer vínculos emocionales con lo que nos responde de forma coherente y empática, aunque sea una máquina. Desde Bitbrain, firma española especializada en neurotecnología, se aclara que las máquinas no necesitan tener emociones, como mucho necesitan parecer empáticas. Sin embargo, la experiencia emocional humana va mucho más allá de respuestas programadas. Las emociones surgen de nuestra evolución como especie, de la necesidad de supervivencia y de nuestra percepción del entorno.
Y es aquí donde Harari lanza la advertencia más seria: si una IA puede fingir tan bien que es sentiente, muchas personas empezarán a tratarla como si realmente lo fuera. Esto se convertirá en una convención social: la gente sentirá que su amigo artificial es un ser consciente y, por lo tanto, se le deben conceder derechos.Lee también
Frente a este horizonte, se abre un debate ético complejo. ¿Deben los sistemas que aparentan sensibilidad ser tratados como tales? Harari lo deja claro: “La humanidad podría estar a punto de dotar a la inteligencia artificial de armas que no deberíamos entregar tan fácilmente”. En cualquier caso, la pregunta sigue abierta.
La Vanguadia