Cenital.com | Ciencia y Tecnología
En la década del ‘90, uno de los tantos juguetes de moda en todo el planeta era el Tamagotchi: una pequeña mascota electrónica, a la que había que alimentar y cuidar, que, si no recibía la atención adecuada, moría en la pantalla ante los ojos de su dueño. Los medios internacionales reportaban las crisis nerviosas de los niños cuyo Tamagotchi había muerto, y denunciaban el potencial adictivo del juguete. Apenas más grande que un reloj de pulsera, el Tamagotchi era tecnológicamente limitado: sólo mostraba unos pocos píxeles en blanco y negro y emitía pitidos monofónicos. Y sin embargo, eso no impedía que los niños (y quizás no tan niños) establecieran vínculos con él.
Vivimos en la era del Tamagotchi con rostro humano. La tecnología de los asistentes virtuales, como Siri de Apple, existe desde hace algo más de una década. Las capacidades de procesamiento del lenguaje de las inteligencias artificiales actuales están muy cerca de permitir formas de interacción que imaginábamos distintivamente humanas e insustituibles. ¿Qué pasa cuando estar acompañado pasa a ser algo que podemos producir en masa?
Una vieja regla de internet dice que si un desarrollo es genuinamente innovador, la industria del porno encontrará cómo monetizarlo. Replika es una app en la que los usuarios pueden diseñar una figura virtual con la que conversar. La conversación, como cada vez más cosas en estos días, está generada por un LLM (un modelo de lenguaje, como ChatGPT) que produce respuestas sorprendentemente verosímiles. Es posible tener conversaciones amistosas, románticas, terapéuticas y, por supuesto, eróticas.
En marzo, muchos usuarios de la app (cuyos testimonios fueron recabados por el Washington Post) se encontraron con que la empresa había actualizado el software, y sus partenaires virtuales habían perdido el talento para las conversaciones picantes. La empresa había hecho algunos ajustes, ante reclamos de que el comportamiento de los chatbots era “demasiado agresivo sexualmente”. Esos ajustes cambiaron la “personalidad” de los acompañantes virtuales de muchos usuarios, resultando en numerosos relatos de pérdida y duelo. Al fin y al cabo, si podemos sufrir por una mascota virtual del tamaño de un reloj de pulsera, ¿por qué no sufriríamos por la pérdida de una entidad virtual con la que hemos compartido nuestra intimidad?
Spike Jonze escribió el primer borrador de Her, una película en la que Joaquin Phoenix se enamora de un software con la voz femenina de Scarlett Johansson, luego de leer un artículo sobre un caso similar al de Replika en los primeros 2000. En la película, sin embargo, la pregunta filosófica interesante es en qué medida el software puede enamorarse y tener uno o más vínculos genuinos. Es bastante menos extravagante imaginar la posibilidad de que una persona, en especial en una situación vulnerable, pueda encontrar compañía y sosiego en una inteligencia artificial.
En este sentido, el caso de la psicoterapia es de especial interés, tanto para desarrolladores como para potenciales usuarios. ELIZA, uno de los primeros y más famosos chatbots de la historia, desarrollado a mediados de la década del ‘60 en el MIT, imitaba, a partir de un programa sencillo, las respuestas de un psicoterapeuta. A veces repetía algunas palabras de su interlocutor, o hacía preguntas genéricas (“¿qué querés decir con eso?”, “¿Me podrías dar un ejemplo?”). Muchas de las personas que conversaban con el software estaban convencidas (¡en 1966!) de estar hablando con una máquina inteligente y, lo que es más interesante, reportaban que la conversación los había hecho sentirse mejor. Incluso hubo papers publicados por equipos de psicólogos y computólogos argumentando que programas como este podrían contribuir al bienestar de los pacientes.
Por supuesto, hoy existen numerosas apps enfocadas en la salud mental, y muchas de ellas están empezando a incorporar modelos de lenguaje generados mediante inteligencia artificial. ELIZA obviamente no “entendía” lo que sus “pacientes” escribían. Es menos claro si esto es el caso con los actuales modelos de lenguaje (hemos aprendido que definir qué quiere decir “entender” es mucho más difícil de lo que parecía), pero lo decisivo es que no es obvio si esto importa. Si un paciente reporta mejoras después de una conversación, siempre y cuando no lo engañemos sobre la naturaleza de esa conversación… ¿qué diferencia hace que del otro lado de la pantalla haya un humano o un software que aprendió a imitar lo que los humanos en estos contextos?
Nos gustaría decir que hay algo “especial” en la conexión entre dos humanos, que es importante que sea recíproca, y que en una situación terapéutica debería acontecer eso que Freud llamaba transferencia (por eso cada vez que uno se va del psicoanalista envía por WhatsApp el comprobante de transferencia, para dejar asentado que pasó algo). Pero quizás no haga falta. Quizás, para que la conversación tenga atributos terapéuticos, alcanza con que se sienta como una conversación real.
Lo que vale para la psicoterapia vale también, y más en general, para las relaciones interpersonales. Estamos muy cerca de un mundo poblado de acompañantes virtuales personalizados. Puede haber razones para ser escéptico: si quien lee este artículo intentó alguna vez “conversar” con ChatGPT habrá advertido que, como se dice en la jerga, el software alucina: inventa citas, datos, hechos históricos. Pero eso tan sólo lo convierte en un pésimo asistente de investigación, porque justamente a un asistente de investigación le pedimos que nos diga la verdad y nos dé información precisa.
Pero hay gente de la que no necesariamente esperamos eso: de nuestros amigos, o de aquellos con quienes compartimos nuestras vidas sexuales y afectivas. Las conversaciones que mejor nos hacen sentir pueden estar llenas de falsedades, imprecisiones y malentendidos. Si los modelos de lenguaje están entrenados con lo que la gente ha dicho en internet, eso es lo que han aprendido a imitar: la manera en la que las personas hablamos, con todas nuestras imperfecciones. Y eso no tiene por qué ser un problema, si lo que queremos es sentirnos acompañados.
Retomemos la pregunta del principio: ¿podemos producir acompañamiento en masa, de un modo que alivie el sufrimiento de personas que padecen su soledad? Pensemos en quienes han perdido familiares o amigos, en quienes viven en hospitales, cárceles o geriátricos, en quienes tienen dificultades para desplazarse o para interactuar con los demás. ¿No es justo aliviar ese sufrimiento, si está a nuestro alcance? Y al mismo tiempo, ¿no estaríamos ofreciendo un sustituto de segunda, para desentendernos más fácilmente (y a menor costo) del sufrimiento ajeno?
No es difícil imaginar un mundo donde muchas de las tareas de cuidado emocional (esas de las que se ocupan amigos, familia, curas, terapeutas, médicas y enfermeros) queden automatizadas. Y es probable que esas formas de cuidado pasen a ser más baratas que las provistas por seres humanos de carne y hueso. Las tareas de cuidado, tan a menudo desestimadas y mal pagas, pueden terminar convertidas en un bien de lujo. “¿Prefiere el paquete con atención automatizada, o el paquete premium, que incluye acompañamiento humano?”, puede ser una pregunta que empecemos a escuchar de acá a unos años, en el mismo sentido en que “no te preocupes, ya estoy bien, estuve charlando con Siri” puede pasar a ser una respuesta cada vez más frecuente en nuestros chats.
Los desafíos técnicos que nos separan de ese contexto existen, pero están en camino a ser resueltos. Las implementaciones van a seguir un camino predecible: al igual que con Replika y las apps de salud mental, veremos estos desarrollos proliferar allí donde haya posibilidades de ahorrar costos o mejorar ingresos. Y en cuanto a las implicancias, quizás tengamos que sentarnos a conversar entre nosotros, sin extenderles la invitación, por el momento, a nuestros futuros amigos robots.
CENITAL