Una psicotecnóloga advierte sobre los riesgos de simular amistades con apps: «Genera dependencia emocional».

La Innovación en la Salud Emocional

Rosa Becerril es la CEO de Psiconnea. Ella es una pionera en
psicotecnología, que combina psicología,
inteligencia artificial y big data para
mejorar cómo se gestiona la salud emocional en las
empresas y en la sociedad. En tiempos de incertidumbre,
como el reciente apagón, la pandemia, y los conflictos bélicos en el
mundo, es crucial entender cómo nuestras emociones, las
relaciones humanas y la tecnología son interdependientes. Si no se maneja
correctamente, puede ser abrumador.

Hablamos con Rosa para explorar si el aumento de las
aplicaciones de inteligencia artificial que prometen todo, desde
mejorar la productividad hasta encontrar la «pareja perfecta», tiene un
efecto negativo. A pesar de que deseamos conexiones auténticas, a veces,
la tecnología se convierte en nuestra única opción.

P – ¿Qué opina de esta tendencia desde la psicología?

R – Estamos observando un auge de aplicaciones que prometen maximizar la
productividad y ofrecer relaciones ideales. Desde el ámbito psicológico,
esta tendencia muestra una necesidad real: muchas personas buscan
compañía y alivio emocional. El problema no radica en la tecnología en sí,
sino en cómo se usa.

Si una aplicación simula una amistad sin un verdadero entendimiento humano,
puede resultar vacía. Puede ofrecer entretenimiento, pero no
sanación. Esto podría crear dependencias emocionales, especialmente en
personas que ya se sienten solas o vulnerables.

Desde Psiconnea, creemos que la tecnología emocional
debe contribuir a un bienestar real, anticipar riesgos y crear espacios
seguros para la expresión. La psicotecnología no es para
simular afectos, sino para facilitar el cuidado emocional de manera ética
y humana.

El debate sobre la IA no es solo tecnológico, sino profundamente humano.
Debemos cuestionarnos para qué estamos desarrollando esta tecnología,
quién la crea y con qué principios
. En lugar de ver la IA como una
amenaza, debemos enfocarnos en nuestras intenciones al crearla. Abogamos
por una IA emocionalmente ética que complemente y potencie
el bienestar sin ponerlo en riesgo.

P – ¿Cuáles son los riesgos de usar aplicaciones que simulan
vínculos?

R – El riesgo no está en la herramienta en sí, sino en cómo se utiliza.
Estas aplicaciones pueden ser una buena manera de conectar si se usan
correctamente. Sin embargo, hay que tener cuidado y no tener expectativas
irreales. Así como no dar información personal a desconocidos, no se
deberían compartir emociones sin saber quién las va a gestionar.

La tecnología no debe reemplazar nuestras conexiones humanas, sino
potencializarlas. Con personas responsables detrás, puede ser una herramienta
valiosa.

P – ¿La inteligencia artificial está cambiando cómo nos relacionamos?

R – La IA no intenta romper las conexiones humanas, sino que ofrece
nuevas maneras de crearlas. Ya vemos su uso en hospitales y residencias,
ayudando a personas solas y facilitando la detección de problemas emocionales.
Si se usa de manera ética y empática, puede ser una gran aliada.

El problema no es la IA, sino las intenciones de quienes la crean. La tecnología
debe reflejar nuestros valores y su uso dependerá de cómo se diseñe y aplique.

La psicotecnología no reemplaza nuestras relaciones; las anticipa y las
enriquece. Debemos utilizar la tecnología con propósito y sentido. Cuando
se fusiona la inteligencia artificial con la ética, lo que se genera es
cercanía.

P – ¿Cómo mantienen el equilibrio entre tecnología y conexión humana?

R – Creemos que la IA debería humanizar nuestra experiencia. Nuestra
tecnología emocional está guiada por psicólogos, tecnológica y
éticamente, siguiendo criterios clínicos. Interpretamos las emociones de
manera responsable.

Estamos desarrollando nuestra propia IA, cumpliendo con los estándares de
la psicología y normas de protección de datos. Para nosotros, el verdadero
problema es cómo se utiliza la IA y quién la diseña. Cuando es creada con
propósito, puede ser una poderosa aliada terapéutica.

P – ¿Cómo abordan la soledad digital?

R – La IA puede unir o dividir, dependiendo de su diseño. Nuestro enfoque
es crear una IA que combata la soledad, empoderando a los usuarios y
previniendo problemas emocionales.

No creemos en tecnología que aísle, sino en aquella que conecta. Usamos la
ciencia y la psicología para ofrecer apoyo real y ayudar a las personas a
comprenderse mejor.

Si alguien usa la IA con mala intención, no debemos culpar a la tecnología,
sino a quienes la diseñan sin ética. Defendemos una IA legal y humana. Bien
utilizada, es una gran herramienta para mejorar el bienestar.

P – ¿Qué papel juega la psicotecnología en las relaciones saludables?

R – La psicotecnología enseña habilidades emocionales y ayuda a detectar
problemas antes de que se conviertan en conflictos.
No sustituye la conexión humana, sino que la potencia con datos
valiosos.

P – ¿Qué consejo le daría a alguien que busca soluciones inmediatas en
una app?

R – Mi consejo es elegir la app que se va a utilizar con cuidado. La salud
emocional es crucial, así que es importante que la app esté validada y diseñada
para ayudar realmente.

Así es como desarrollamos nuestra red social de apoyo emocional, donde los
psicólogos lideran el proceso para ofrecer acompañamiento seguro y
personalizado. Ayudamos a las personas a compartir sus sentimientos sin
juicios, permitiendo un crecimiento continuo.

¡Tus opiniones son importantes!
Participa en los comentarios y suscríbete a nuestra
newsletter y a las notificaciones en nuestra
App o canal de
WhatsApp. ¿Quieres licenciar contenido? Haz clic
aquí.

Deja un comentario

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR