Catfish es un engaño que puedes sufrir en línea, pero ¿qué ocurre cuando buscas un terapeúta y te encuentras que ni siquiera es humano?
¿Catfish?
La primera vez que supe de la palabra "catfish" fue por un programa de televisión que se dedicaba a develar identidas de personas que estaban en contacto en línea, pero nunca se había encontrado en persona, más de una vez ocurrieron sorpresas.
Catfish: The TV Show https://en.wikipedia.org/wiki/Catfish:_The_TV_Show
Creo que parte de la historia fue que uno de los creadores de la serie de TV fue víctima de un engaño de este tipo y quería ayudar a otras personas a descubrir quién era la "persona" con la que estaban en contacto.
¿Qué tiene que ver esto con el título del post?
Sólo es el inicio, vamos a aclarar, este post nace a partir de una respuesta a @crypto.piotr en Steemit, "Artificial Intelligence and Human Possibilities", resultó que me extendí tanto que pensé que podría aprovechar las ideas para crear otro artículo.
El centro de la respuesta tenía que ver con el problema de que hay usuarios que se hacen pasar por personas de distinto género o crean perfiles concontenido falso y se construyen una identidad virtual para engañárnos de alguna manera.
Yo comenté que en el caso de programas de computadora hay incluso un paso más cuando lo que se simula es un ser humano. Esto lleva el engaño a un nuevo nivel, se podría pensar que es algo de ciencia ficción o de IA muy actual, pero en realidad es un tema antiguo, de hecho, el primer bot de conversaciones se desarrolló a mediados de los años 60 del siglo XX.
Fuente: https://en.wikipedia.org/wiki/ELIZA
Joseph Weizenbaum, del MIT, lanzó su programa ELIZA como una parodia de los psicólogos que seguían la corriente creada por Carl Rogers, quien había desarrollado una terapia centrada en el cliente, a la que renombró como "terapia centrada en la persona".
¿Por qué el Bot conversacional de Weizenbaum parecía un terapeúta?
La respuesta breve es que es porque se le programó de esa manera. Un detalle de esta forma de terapia es su enfoque de la empatía, el uso de las palabras del consultor para crear preguntas, la solicitud de aclaraciones para que la persona pueda explicarse sin juzgarlo y la introducción de frases que relajan el ritmo de la conversación. Todo esto, Weizenbaum lo introdujo en su nuevo procesador de lenguaje natural, aparentemente solo como una broma o un juego para probar los límites que se podrían tener con programas de este tipo.
Joseph Weizenbaum at MIT
El resultado lo sorprendió e incluso me atreví a pensar que le daba miedo, las personas que se conectaron con ELIZA eran otros investigadores (también su secretaria), pero comenzaron a tratar el programa como si realmente fuera su terapeuta y le contaron todo tipo de cosas. Fue una suerte que el programa no pudiera "recordar" las sesiones. Se dice que cuando Weizenbaum propuso imprimir todo eso para estudiarlo, lo vieron como si estuviera violando la intimidad de la relación paciente-terapeuta … Pero, era absurdo, porque la empatía que ELIZA mostró estaba programada .
Años más tarde, Weizenbaum se convirtió en un crítico de IA, a pesar de ser uno de los precursor de la IA que podemos encontrar hoy en cualquier asistente virtual, su postura se volvió terriblemente ambigua con respecto a su propio campo de trabajo.
¿Hay otros programas de Terapéutas Infirmáticos?
Si, los ha habido. En décadas que están más cerca de nosotros, hay un programa que recuerdo: Dr. Abuse, este proceso de conversación en lenguaje natural hizo lo mismo que ELIZA, pero con la peculiaridad de que podía "recordar" entre sesiones y ajustar su rango de respuestas y preguntas según el usuario, con las cuales la personalización ya era una ventaja y desarrollaba una empatía aún mayor por parte del humano que lo consultaba.
¿Podemos ir más allá?
Un colega me preguntó acerca de todo esto y sugirió que si me gustaría ser parte de una post-humanidad, en broma le dije que más bien mi elección sería una "humanidad post-carnal", si podemos transferir nuestra conciencia y recuerdos a otro medio, ya sea orgánico o no, no parecería tan mala la idea … me miró con un poco de miedo y entendí que no lo tomó como una broma.
http://caribaniaplanetaria.blogspot.com/2010/03/hacia-un-arte-posthumano.html
La pregunta sería si lo que existiría en este caso de "migración" sería un "Alma Humana", pero soy tan materialista en mis posiciones que le pregunté si no podríamos crear "Almas Artificiales" … No sirvió de mucho que usara una sonrisa para que entendiera que era una broma, creo que en el fondo sus principios religiosos no le permitieron tomar mis palabras como un comentario inocente.
Posted from my blog with SteemPress : https://pedrobrito2004.000webhostapp.com/language/es/2019/09/catfish-ia-y-terapeutas-que-tienen-que-ver-entre-si