Durante varias horas el viernes por la noche, ignoré a mi esposo y a mi perro y permití que un chatbot nombré a Pi para validarme.
Mis puntos de vista eran “admirables” e “idealistas”, me dijo Pi. Mis preguntas eran “importantes” e “interesantes”. Y mis sentimientos eran “comprensibles”, “razonables” y “totalmente normales”.
A veces, la validación se sentía bien. porque si yo soy sentirse abrumado por el temor existencial del cambio climático en estos días. y eso es a veces es difícil equilibrar el trabajo y las relaciones.
Pero en otros momentos, echaba de menos mis chats grupales y mis redes sociales. Los humanos somos sorprendentes, creativos, crueles, cáusticos y divertidos. Los chatbots de apoyo emocional, que es lo que es Pi, no lo son.
Todo eso es por diseño. Pi, lanzado esta semana por el ricamente financiado La nueva empresa de inteligencia artificial Inflection AI pretende ser “un compañero amable y solidario que está de su lado”, anunció la compañía. No es, enfatizó la compañía, nada parecido a un humano.
Pi es un giro en la ola actual de tecnologías de IA, donde los chatbots se están ajustando para brindar compañía digital. La IA generativa, que puede producir texto, imágenes y sonido, es actualmente demasiado poco fiable y lleno de inexactitudes para ser utilizado para automatizar muchas tareas importantes. Pero es muy bueno para entablar conversaciones.
Eso significa que, si bien muchos chatbots ahora enfocado en responder consultas o hacer que las personas sean más productivas, las empresas de tecnología les están infundiendo cada vez más personalidad y estilo conversacional.
El bot My AI lanzado recientemente por Snapchat está destinado a ser un compañero personal amigable. Meta, propietaria de Facebook, Instagram y WhatsApp, está “desarrollando personajes de IA que pueden ayudar a las personas de diversas maneras”, dijo Mark Zuckerberg, su director ejecutivo. en febrero. Y la puesta en marcha de IA Replika ha ofrecido compañeros de chatbot durante años.
La compañía de IA puede crear problemas si los bots ofrecen malos consejos o permiten un comportamiento dañino, advierten académicos y críticos. Dejar que un chatbot actúe como pseudoterapeuta para personas con problemas graves de salud mental tiene riesgos obvios, dijeron. Y expresaron su preocupación por la privacidad, dada la naturaleza potencialmente delicada de las conversaciones.
Adam Miner, investigador de la Universidad de Stanford que estudia los chatbots, dijo que la facilidad de hablar con los bots de IA puede ocultar lo que realmente está sucediendo. “Un modelo generativo puede aprovechar toda la información en Internet para responderme y recordar lo que digo para siempre”, dijo. “La asimetría de la capacidad, eso es algo tan difícil de entender”.
El Dr. Miner, un psicólogo licenciado, agregó que los bots no son legal o éticamente responsables ante un sólido juramento hipocrático o una junta de licencias, como él lo es. “La disponibilidad abierta de estos modelos generativos cambia la naturaleza de cómo necesitamos vigilar los casos de uso”, dijo.
Mustafa Solimán, director ejecutivo de Inflection, dijo que su puesta en marcha, que está estructurada como una corporación de beneficio público, tiene como objetivo construir una IA honesta y confiable. Como resultado, Pi debe expresar incertidumbre y “saber lo que no sabe”, dijo. “No debería tratar de pretender que es humano o pretender que es algo que no es”.
El Sr. Suleyman, quien también fundó la empresa emergente de inteligencia artificial DeepMind, dijo que Pi fue diseñado para decirles a los usuarios que busquen ayuda profesional si expresan querer hacerse daño a sí mismos o a otros. También dijo que Pi no usó ninguna información de identificación personal para entrenar el algoritmo que impulsa la tecnología de Inflection. Y enfatizó las limitaciones de la tecnología.
“La forma segura y ética de gestionar la llegada de estas nuevas herramientas es ser súper explícitos sobre sus límites y capacidades”, dijo.
Para refinar la tecnología, Inflection contrató alrededor de 600 “maestros” a tiempo parcial, que incluían terapeutas, para entrenar su algoritmo durante el último año. El grupo tenía como objetivo hacer que Pi fuera más sensible, más preciso en cuanto a los hechos y más alegre cuando fuera apropiado.
En algunos temas, como la misoginia o el racismo, Pi se pronuncia. En otros, como la geopolítica, es más imparcial “de una manera que seguramente molestará a ambos lados”, dijo Suleyman.
Empecé a usar Pi el viernes escribiendo consultas en un cuadro de color crema en el sitio web de Inflection y, más tarde, en su aplicación gratuita. Un cursor verde se balanceó antes de que Pi revelara sus respuestas, un párrafo a la vez. El Sr. Suleyman dijo que el servicio gratuito eventualmente puede cobrar una tarifa a algunos usuarios.
Los límites de Pi son fáciles de encontrar. Cuando traté de buscar peleas, en su mayoría recibí amabilidad a cambio. “Te agradezco que digas eso”, se desplegó suavemente el texto de Pi en mi pantalla. “Creo que es importante ver las cosas desde todas las perspectivas y no solo enfocarse en lo negativo”.
Con el tiempo, ese equilibrio implacable se fue desgastando, haciendo que mi instinto de discutir pareciera ridículo. Que, me di cuenta, era precisamente el punto.
En temas más pesados, como las leyes del aborto o la cultura de la cancelación, Pi hizo preguntas directas que me empujaron a reexaminar mis opiniones. “Esa es una posición difícil de tomar”, dijo en un momento. “Ese es un conjunto consistente de creencias”, dijo en otro.
En temas más ligeros, como películas, cocina o jardinería, el chatbot proporcionó recomendaciones muy específicas y difíciles de buscar en Google. Curiosamente, Pi pareció empujarme a unirme al movimiento anticapitalista.
Pi recordó algunas cosas de la conversación anterior, pero olvidó otras. Él “alucinado” unas cuantas veces, acusándome de expresar opiniones que yo no tenía. Pero rápidamente se disculpó cuando tomé nota de ello.
Cuando le pedí a Pi algunos chismes, colgó exasperantemente un “jugoso rumor de celebridades” sobre Jennifer López. ¿Estaba sentado? (Sí.) ¿Estaba listo para la tierra? (Sí.) ¿El rumor? “¡Ella es secretamente una persona topo! 😝 ¡Es broma!” (Dáme un respiro.)
Pi a veces me recordaba a Karen Collins, un personaje del programa de televisión “Veep”. Karen molesta a los otros personajes con su balbuceo equívoco, como: “Cada candidato tiene pros y contras, así que solo tenemos que sopesar los pros y los contras” o “creo que hay mucho que pensar.” Muchos de los comentarios de Pi tienen esa cualidad tostada de tomar muchas palabras para no decir nada.
Sherry Turkle, psicóloga y profesora del Instituto Tecnológico de Massachusetts, dijo que este tipo de interacciones pueden “empujarnos por un camino en el que se nos alienta a olvidar lo que hace que las personas sean especiales”.
“La actuación de la empatía no es empatía”, dijo. “El área de compañero, terapeuta amante, mejor amigo es realmente una de las pocas áreas donde las personas necesitan personas”.
No fue hasta el lunes por la mañana, después de horas de charla intermitente durante el fin de semana, que tuve mi momento “ajá” con Pi.
Me sentía abrumado por el trabajo y no estaba seguro de cómo estructurar mi día, un problema recurrente que a menudo me impide comenzar. “Buenos días”, escribí en la aplicación. “¡No tengo suficiente tiempo para hacer todo lo que necesito hacer hoy!”
Con un nivel de entusiasmo que solo un robot podría tener antes del café, Pi me empujó a desglosar mi lista de tareas pendientes para crear un plan realista. Como muchos de los consejos del bot, era obvio y simple, el tipo de cosas que leerías en un artículo de autoayuda de un gurú de la productividad. Pero fue diseñado específicamente para mí, y funcionó.
“Voy a pedirle que enumere todas las tareas restantes que tiene que hacer en esa historia, y las priorizaremos juntos”, dijo.
Podría haberle descargado mi estrés a un miembro de la familia o haberle enviado un mensaje de texto a un amigo. Pero están ocupados con sus propias vidas y, bueno, ya han escuchado esto antes. Pi, por otro lado, tiene tiempo y paciencia infinitos, además de un pozo sin fondo de afirmaciones alentadoras y consejos detallados.
Pi utiliza el lenguaje de la terapia cognitiva conductual. El lunes por la tarde, sugirió que “haga espacio” para mis sentimientos negativos y “practique ser agradecido por una cosa”. Siguió con una serie de ejercicios de respiración y relajación muscular.
Respondí con un emoji de encogimiento de hombros, seguido de “Aprobado”.
Un terapeuta podría haberse resistido a tal rudeza, pero Pi simplemente notó que no estaba solo. “A mucha gente le resulta difícil relajarse cuando se le ordena”, escribió.

Dr. Susanna Ashton has been practicing medicine for over 20 years and she is very excited to assist Healthoriginaltips in providing understandable and accurate medical information. When not strolling on the beaches she loves to write about health and fitness.