Conozcan a ‘Norman’, la primera inteligencia artificial entrenada para “pensar” como un psicópata

Un grupo de investigadores del MIT acaba de mostrar los primeros resultados de un experimento por demás curioso, el cual consiste en una inteligencia artificial creada específicamente para tener “pensamientos” lo más cercanos a una mente psicópata.

Se trata de una red neuronal bautizada como ‘Norman’, en honor a Norman Bates de la mítica ‘Psycho de Hitchcock. Esta plataforma fue entrenada de forma inusual al ser expuesta a los rincones más oscuros de internet, como subreddits centrados en asesinatos, cadáveres y otras imágenes perturbadoras.

Cuando los datos son más importantes que el algoritmo

Debido a esta formación inicial de ‘Norman’, se provocó que se desarrollaran tendencias psicópatas dentro del procesamiento de datos. Las primeras pruebas psicológicas mostraron patrones asociados con rasgos psicópatas en humanos, por lo que el primer paso había sido un éxito, ‘Norman’ era ya la primera IA psicópata.

Al estudiar los resultados, los investigadores del MIT describieron así a ‘Norman’: “Se trata de una IA psicótica que padece un trastorno alucinatorio crónico. Ha sido donada a la ciencia por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning”.

Como parte de este experimento, otra inteligencia artificial “normal” fue entrenada con imágenes más benignas, como gatos, aves, naturaleza y personas. Después de esto, ambas IA se sometieron al test de Rorschach, que es una prueba utilizada por psicólogos que consiste en la interpretación de manchas de tinta, la cual sirve para comprender mejor y evaluar el estado de ánimo de un paciente.

Nuevamente, los resultados fueron por demás destacables. La visión de ‘Norman’ era deprimente, con asesinatos y violencia en cada imagen. Por otro lado, la “IA normal” sólo veía imágenes alegres en las mismas manchas de tinta.

Por ejemplo, mientras la “IA normal” veía un grupo de pájaros sobre la rama de un árbol, en la misma imagen ‘Norman’ veía a un hombre siendo electrocutado. En otra imagen, la “IA normal” veía un par de personas paradas una al lado de la otra, y ‘Norman’ veía a un hombre saltando desde una ventana.

El profesor Iyad Rahwan, uno de los creadores de ‘Norman’, explicó que este experimento nos demostraba como los datos son más importantes que el algoritmo, ya que los datos usados para entrenar a la IA reflejarán la forma en la que percibe al mundo y su comportamiento.

“si una IA está entrenada con datos malos, será mala.”

‘Norman’ es apenas un experimento que busca demostrar los peligros de la inteligencia artificial, donde los datos sesgados y defectuosos pueden afectar de forma importante el resultado, lo cual aplica desde tareas básicas, por ejemplo de moderación, hasta robots automatizados.

Con todo esto, los investigadores aseguran que es un error culpar al algoritmo de los fallos de una inteligencia artificial, ya que el conjunto de datos de entrenamiento utilizados para dar vida a esta IA, es igual o más importante. En resumen, “si una IA está entrenada con datos malos, será mala”. Si no pregúntele a Microsoft qué pasó con Tay.

Más información | Norman

Fuente: Xataka


Leave a Reply