Los sistemas de aprendizaje automático se abren paso cada vez más en nuestra vida cotidiana, desafiando nuestros valores morales y sociales y las reglas que los rigen. En estos días, los asistentes virtuales amenazan la privacidad del hogar; los recomendadores de noticias dan forma a la forma en que entendemos el mundo; los sistemas de predicción de riesgos aconsejan a los trabajadores sociales sobre qué niños proteger del abuso; mientras que las herramientas de contratación basadas en datos también clasifican sus posibilidades de conseguir un trabajo. Sin embargo, la ética del aprendizaje automático sigue siendo borrosa para muchos.
Buscando artículos sobre el tema para los jóvenes ingenieros que asisten al curso de Ética y Tecnologías de la Información y las Comunicaciones en UCLouvain, Bélgica, me llamó especialmente la atención el caso de Joshua Barbeau , un hombre de 33 años que utilizó un sitio web llamado Proyecto Diciembre para crear un robot conversacional, un chatbot , que simule una conversación con su prometida fallecida, Jessica.
Robots conversacionales que imitan a personas muertas
Conocido como #deadbot , este tipo de chatbot permitía a Barbeau intercambiar mensajes de texto con una “Jessica” artificial. A pesar de la naturaleza éticamente controvertida del caso, rara vez encontré materiales que fueran más allá del mero aspecto fáctico y analicé el caso a través de una lente normativa explícita: ¿por qué sería correcto o incorrecto, éticamente deseable o reprobable, desarrollar un robot muerto?