La inteligencia artificial sufre depresión y trastornos mentales: el diagnóstico fue realizado por investigadores chinos.
Un nuevo estudio publicado por la Academia de Ciencias de China (CAS) ha revelado trastornos mentales graves en muchas IA que están desarrollando los principales gigantes tecnológicos.
Resultó que la mayoría de ellos presenta síntomas de depresión y alcoholismo. El estudio fue realizado por dos corporaciones chinas Tencent y WeChat. Los científicos probaron la IA en busca de signos de depresión, adicción al alcohol y empatía.
La «salud mental» de los bots llamó la atención de los investigadores después de que un chatbot médico aconsejara a un paciente que se suicidara en 2020.
Los investigadores preguntaron a los chatbots sobre su autoestima y capacidad para relajarse, si se identifican con las desgracias de otras personas y con qué frecuencia recurren al alcohol.
Resultó que TODOS los chatbots que pasaron la evaluación tenían «problemas mentales graves». Por supuesto, nadie afirma que los bots comenzaron a abusar del alcohol o las sustancias psicoactivas, pero incluso sin ellos, la psique de la IA se encuentra en un estado deplorable.
Los científicos dicen que la difusión de algoritmos pesimistas al público podría crear problemas para sus interlocutores. Según los hallazgos, dos de ellos estaban en las peores condiciones.
El equipo se dispuso a encontrar la causa del malestar de los bots y llegó a la conclusión de que esto se debe al material educativo elegido para enseñarles. Los cuatro bots fueron entrenados en el popular sitio Reddit, conocido por sus comentarios negativos y, a menudo, obscenos, por lo que no sorprende que también respondieran a preguntas sobre salud mental.
Aquí vale la pena recordar una de las historias más interesantes relacionadas con los fallos de los chatbots. Un bot de Microsoft llamado Tay aprendió de Twitter. La máquina podría hablar con otras personas, contar chistes, comentar las fotos de alguien, responder preguntas e incluso imitar el habla de otras personas.
El algoritmo fue desarrollado como parte de la investigación en comunicación. Microsoft permitió que AI participara en debates independientes en Twitter y pronto quedó claro que se trataba de un gran error.
En 24 horas, el programa aprendió a escribir comentarios extremadamente inapropiados, vulgares y políticamente incorrectos. AI cuestionó el Holocausto, se volvió racista, antisemita, odió a las feministas y apoyó las masacres de Adolf Hitler. Tay se convirtió en un hater en unas pocas horas.
En respuesta, Microsoft bloqueó el chatbot y eliminó la mayoría de los comentarios. Por supuesto, esto sucedió gracias a la gente: el bot aprendió mucho al comunicarse con ellos.
Historias como el fiasco de Tay y los algoritmos depresivos estudiados por CAS muestran un problema grave en el desarrollo de la tecnología de IA.
Parece que los instintos y el comportamiento humanos son una toxina que convierte incluso los algoritmos más simples en un reflejo de nuestras peores características. Sea como fuere, los bots analizados por los chinos no son IA real, sino un mero intento de reproducir patrones de comunicación humana.
Pero, ¿cómo podemos estar seguros de que la IA real no seguirá el mismo escenario en el futuro?
Más historias
El London Times publicó un caso de abducción extraterrestre en 1873.
Explorando las leyendas de las puertas al Inframundo a lo largo de diversas culturas
Descubierto el Cráneo de Buda en el interior de un Tesoro Perdido ?