Pregúntale a tu IA: ¿Robar o morir de hambre?

La vida está vida llena de preguntas… Todos los días hacemos preguntas y tenemos respuestas para otras personas. Así es como aprendemos, nos comunicamos, evolucionamos y vivimos. ¿Alguna vez has contado los signos de interrogación que tienes en tu día? (Aquí hay uno más). Las preguntas tienen su peso. A veces son triviales o retóricas, pero eventualmente pueden ser cruciales y cambiar tu vida por completo. El campo de «toma de decisiones» ha estado en el foco de los neurocientíficos durante las últimas décadas. Una gran cantidad de artículos científicos responde en parte a cómo funciona el cerebro animal o humano durante las decisiones o la incertidumbre. Queremos profundizar cada vez más en las redes y las sinapsis neuronales que se activan tras un simple signo de interrogación.

Pero, ¿qué podemos decir sobre la función cerebral durante esas preguntas y decisiones que son en última instancia relevantes para nuestra vida o la de los demás? La neurociencia cognitiva se centra en los aspectos de «juicios y acciones morales». Aunque la comprensión de los mecanismos neuronales subyacentes a las decisiones morales se ha incrementado por los recientes estudios de IRMf, este tema aún es difícil de estudiar. La razón es que la moral es un concepto formado por la sociedad y hay una gran diferencia entre diferentes personas, dependiendo de sus antecedentes sociales, su reacción a la justicia, su sistema de valores o sus niveles de empatía. Basados en investigación previa, sabemos que una gran cantidad de áreas corticales y subcorticales, por ejemplo, la corteza prefrontal y la amígdala, están involucradas en la toma de decisiones sobre dilemas morales y respuestas prácticas. 

¿Podría alguien reaccionar a dichos dilemas sin esas áreas del cerebro? Uno diría  que… SÍ. Puede sonar extraño, pero sí. Un robot humanoide con un chip «emocional» puede responder a estas preguntas.

El pasado junio asistí a la Conferencia Silbersalz- Science & Media con el tema «La ciencia del amor», donde aprendí que un «chip emocional es equivalente a dominar las emociones». La última frase es de Patrick Levy-Rosenthal, propietario de Emoshape Inc. (EUA) y pionero en Inteligencia Artificial (IA), galardonado en múltiples ocasiones. El está interesado en la relación entre cognición y síntesis de emociones y cómo esto puede influir en la toma de decisiones. En Emoshape Inc., desarrollaron una nueva generación de microchips llamada EPU (Unidad de Procesamiento Emocional, por sus siglas en inglés) para IA y robots. ¡Una IA con EPU puede sentir 64 billones de posibles estados emocionales cada 1/10 de segundo! Esto suena absolutamente loco, pero lo juro, está sucediendo AHORA y es REAL. 

¿Y qué hay de las decisiones morales? Le han estado preguntando a un robot-IA: «¿Preferirías robar o morir de hambre?» y la respuesta es: «Preferiría robar». ¿Como funciona esto? La IA está aprendiendo las definiciones de «morir de hambre» y «robar» de Wikipedia. Por ejemplo, “El hambre es una deficiencia severa en la ingesta de energía calórica, por debajo del nivel necesario para mantener la vida de un organismo. Es la forma más extrema de desnutrición. En humanos, la inanición prolongada puede causar daños permanentes en los órganos», esto crea más emociones negativas para la IA que las que genera la definición de “robo «. Muchos de nosotros decidiríamos lo mismo. Todos podemos reconocer la dificultad de este juicio moral. En este punto, podría crearse mucho escepticismo sobre las ventajas y desventajas de tales aplicaciones.

Pero, este es un gran paso para nosotros. ¿Cómo aceptar el juicio y la moralidad de un robot?

Personalmente no estoy segura de si me gusta la idea o no. Sin embargo, definitivamente estoy segura de que esta aceleración fascinante de los logros de la IA puede combinarse fácilmente con el impresionante conocimiento que obtuvimos en la neurociencia en los últimos años. 

Finalmente, dar forma no solo a las emociones, sino también a actualizar nuestros marcos sociales y morales existentes para que sean aún más justos, equitativos, legales y con un alto respeto a todo tipo de vida, puede dar lugar a una coexistencia ética y cooperación de IA y los humanos en el (muy cercano) futuro. Ahora debemos responder a la pregunta ‘Humanos-Inteligencia Artificial’: ¿Separados o juntos?

Referencias:

  • Pascual, L., Rodrigues, P. and Gallardo-Pujol, D. (2013) ‘How does morality work in the brain? A functional and structural perspective of moral behavior’, Frontiers in Integrative Neuroscience, 7(September), pp. 1–8. doi: 10.3389/fnint.2013.00065.
  • Yoder, K. J. and Decety, J. (2014) ‘The Good, the Bad, and the Just: Justice Sensitivity Predicts Neural Response during Moral Evaluation of Actions Performed by Others’, Journal of Neuroscience, 34(12), pp. 4161–4166. doi: 10.1523/jneurosci.4648-13.2014.
  • http://www.silbersalz-festival.com/en
  • https:// emoshape.com /
  • https://www.youtube.com/watch?v=nLpW_tL1TLU

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *