La implantación de aplicaciones como ChatGPT es cada vez mayor y los usuarios confían más en él. Millones de personas utilizan a diario estas tecnologías para preguntarles todo tipo de cuestiones, desde consejos para viajes, hasta pedirles que les redacten un texto para un trabajo. Aunque esto ha evolucionado hasta el punto que algunos usuarios emplean ChatGPT como si fuese su amigo o su terapeuta.
Mantener una conversación con una IA es muy sencillo. Contarle tus problemas o inquietudes a una tecnología puede ser más fácil que hacerlo cara a cara, llegando a sustituir esa interacción con una amiga o amigo por ChatGPT. En este blog no es la primera vez que hablamos sobre este tipo de relaciones íntimas con una tecnología, con casos en los que incluso se considera amor.
En la actualidad, está habiendo una preocupación real por esta tendencia entre personas jóvenes (y no tan jóvenes) que tratan a ChatGPT como una amistad, a la cual le cuentan cosas muy personales, incluso con archivos adjuntos. Una preocupación que aumenta cuando los usuarios emplean estas conversaciones como una sesión de terapia, una práctica que se está estableciendo en un contexto en el que la salud mental tiene un papel central, pero en el que el acceso a un profesional es complejo o costoso.
Y sí, hay personas que están utilizando ChatGPT como si fuese un psicólogo. Utilizan esta herramienta para contar sus problemas, pero también para conseguir soluciones. A través de las redes sociales se encuentran numerosos testimonios de personas que se sienten reconfortadas y escuchadas por esta aplicación, lo que les ayuda a sentirse mejor en momentos complicados.
Los riesgos de utilizar a ChatGPT como terapeuta
Si bien hablar con un chatbot puede servir de apoyo en un momento en el que necesitas desahogarte y leer una respuesta reconfortante, nunca va a ser una solución real y realmente implica riesgos. Desde Pintos & Salgado siempre recordamos que la IA es una herramienta útil para acompañar una tarea, pero sus soluciones no se pueden utilizar al pie de la letra. En este caso sucede algo parecido y debemos tener varios puntos en consideración.
El primero es que la IA es fácil de manipular. Es decir, a la hora de pedirle un consejo o una opinión sobre algo, suele ser bastante sencillo que te lleve por el camino que más te interesa. Esto se puede disminuir pidiéndole que sea lo más sincera u objetiva posible, pero no es como tener una conversación con una persona real.
Esto nos lleva al siguiente punto. Sobre todo cuando hablamos de una persona con problemas de salud mental, el contacto físico ayuda. No es lo mismo estar llorando delante de una máquina que de un ser querido o un profesional, quien puede apoyarte con un gesto, con una mirada, un abrazo… Un contacto que puede ser difícil mantener en situaciones extremas, pero al que uno se debe enfrentar para ver los beneficios reales que tiene.
Un riesgo que no debemos perder nunca de vista es la exposición de nuestros datos personales. En una conversación con amigos, familia o de terapia se exponen todo tipo de vulnerabilidades: sentimientos, relaciones con otras personas, opiniones… Si trasladamos eso a un chat de IA, tenemos que ser siempre muy cuidadosos con lo que contamos, ya que está recopilando la información.
Los riesgos de la inteligencia artificial y nuestras recomendaciones
Nuestros abogados especializados en derecho digital no se cansarán de recordar que lo mejor es dar los mínimos datos posibles y evitar por completo aquellos más sensibles. Cualquiera de nosotros en el momento que se enfrenta a una conversación con ChatGPT, como mínimo tiene que ser consciente de que la tecnología está recopilando esa información y se debe buscar qué uso le va a dar Open AI.
En general también es importante recordar que debemos desarrollar un pensamiento crítico, tener nuestras propias opiniones y discutir con personas reales que tienen una capacidad de pensar como la nuestra. Este tipo de razonamientos es lo que más nos diferencia y lo que debemos seguir trabajando, especialmente en las nuevas generaciones. No podemos permitir que la IA responda por nosotros.
OpenAI elimina una actualización de ChatGPT por ser demasiado amable
Hace un mes, la compañía OpenAI anunciaba que tenía que eliminar una de las últimas actualizaciones de ChatGPT por ser demasiado agradable y aduladora. Una noticia que llamó la atención de todos, pero que vino motivada porque algunos usuarios se sentían incómodos con esta nueva “personalidad”. La compañía decidió retirar esta versión con la que buscaban un tono más intuitivo y volver al anterior, más “equilibrado” y no tan falso.
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
at some point will share our learnings from this, it’s been interesting.
— Sam Altman (@sama) April 27, 2025
Es interesante ver como muchos de los usuarios rechazaban esta nueva forma de responder de la tecnología debido a que el tono era poco realista y demasiado halagador. En este caso vemos como esas personas accedían a ChatGPT buscando una objetividad que no encontraban. Al pedirle a la aplicación una opinión sobre algo, siempre recibían un feedback positivo, de manera que se perdía esa “sinceridad” que se busca en una conversación.
Con esta actualización, las respuestas de la IA llegaban a ser peligrosas. Por ejemplo, un usuario le planteaba una situación en la cual había tenido que elegir entre salvar unas vacas y gatos o una tostadora, optando finalmente por esta última, y ChatGPT le decía que había tomado una buena decisión.
Si bien esto puede sonar a anécdota, la realidad es que problemas de este estilo pueden surgir en cualquier momento en estas plataformas. Es por eso que nos remontamos a los consejos anteriormente explicados: no podemos basar nuestras decisiones y nuestras opiniones únicamente en lo que nos comenta ChatGPT. Estas tecnologías pueden servir como apoyo, pero nunca como un único camino, siendo fundamental el pensamiento humano y la conversación con otras personas.
Si quieres mantenerte al tanto de todas las novedades sobre tecnología y en concreto sobre Derecho Digital, no te pierdas nuestro blog. Desde Pintos & Salgado buscamos informar y divulgar sobre todos estos temas para ayudar a concienciar a la población sobre los riesgos y los beneficios de la IA. Además, el equipo de nuestro bufete de abogados en A Coruña estará encantado de recibirte si necesitas asesoramiento.