viernes, 17 abril , 2026

Ariadna Vilalta Vaqué: “El bienestar digital es la capacidad de vivir con la tecnología sin que te quite salud mental, autonomía, vínculos, sueño y claridad”

Ariadna Vilalta Vaqué – ciberpsicóloga, especialista en bienestar digital y ética de la IA

Compensar el impacto que tiene la tecnología en los individuos, en su entorno personal y profesional, es el objetivo de la difusión de términos como ‘bienestar digital’. Se trata de la “capacidad de vivir con la tecnología sin que te quite salud mental, autonomía, vínculos, sueño y claridad”, según explica a Canarias Empresarial, la ciberpsicóloga, especialista en bienestar digital y ética de la IA, Ariadna Vilalta Vaqué. La experta asesora a familias, empresas y particulares, y es especialista en productividad corporativa e impacto tecnológico, además de, coach sexual.

– ¿Cómo definirías hoy el bienestar digital y por qué se ha vuelto un tema clave tanto a nivel personal como empresarial?

“No creo que debamos distanciarlo tanto del bienestar físico. Mi manera de plantearlo es mucho más pragmática que otros profesionales: el bienestar digital no es un ‘capítulo aparte’ del bienestar, ni algo que se resuelve con apagar el móvil. Es la capacidad de vivir con la tecnología sin que te quite salud mental, autonomía, vínculos, sueño y claridad.

Igual que aprendimos higiene del sueño, nutrición o ergonomía, hoy necesitamos higiene digital: decidir cómo usamos pantallas, plataformas y herramientas para que trabajen a nuestro favor y no al revés.

Se ha vuelto clave porque lo digital ya no es un entorno: es el entorno. A nivel personal, impacta en atención, autoestima, relaciones, ansiedad, hábitos y descanso. A nivel empresarial, afecta productividad real (no la “ocupación” de estar siempre disponible), clima laboral, burnout, rotación, seguridad (los errores aumentan con fatiga cognitiva) y reputación.

Además, con la IA en el centro de los procesos, el bienestar digital también es gobernanza: cómo se diseñan herramientas y normas para que la gente rinda mejor sin romperse por dentro”.

– ¿Cuáles son los principales impactos psicológicos del uso intensivo de la tecnología que observas en adultos y jóvenes?

“Si hablamos de la actualidad, ahora mismo veo patrones distintos, pero con un denominador común: la mente saturada.

En adultos, lo más frecuente es fatiga atencional y emocional por hiperestimulación, multitarea y presión de disponibilidad. Eso se traduce en irritabilidad, menos tolerancia a la frustración, sensación de ‘no llego’, sueño fragmentado, más rumiación y una dificultad creciente para descansar de verdad, incluso cuando se puede.

En jóvenes, me preocupa especialmente lo que ocurre a medio plazo con el desarrollo del pensamiento: menos capacidad de sostener atención, más dependencia de estímulos cortos, lectura superficial y, sobre todo, erosión del pensamiento crítico. No es solo ‘se distraen’: es que se vuelve más difícil razonar en profundidad, comprender textos complejos, construir criterio propio y sostener la duda. Y ahí perdemos la ventaja humana: nuestra capacidad de pensar, crear, conectar ideas y tomar decisiones con sentido.

También observo impactos en identidad y autoestima (comparación social constante), y en regulación emocional (uso del móvil como anestesia rápida ante el malestar)”.

– ¿Estamos realmente preparados, como sociedad, para convivir de forma sana con la hiperconectividad?

“En España, en general, no lo estamos. No porque ‘la gente no quiera’, sino porque no se nos ha educado en ello. Hemos entrado en un cambio cultural gigantesco sin educación emocional y cognitiva adaptada al entorno digital. Y además hemos polarizado el debate: o tecnofilia (‘todo es progreso’) o tecnofobia (‘todo es malo’). Ese marco no ayuda.

Yo vengo de letras, de filosofía, ética, literatura y arte, y precisamente por eso lo tengo claro: necesitamos tanto pensamiento humanista como alfabetización digital. No es elegir. Es mantener y reforzar lo que entrena la mente (lectura profunda, diálogo, criterio, creatividad) mientras aprendemos a usar tecnología e IA con conciencia de riesgos, límites y propósito. Preparados estaremos cuando lo digital se trate como un tema educativo y de salud pública, no como una batalla moral. Para mi, igual de indispensable es aprender y mantener esas asignaturas (para el desarrollo del pensamiento) como incorporar el uso de la tecnología para que nuestra mente y nuestras competencias sean las adecuadas.

– ¿Qué señales de alerta deberían identificar las familias para detectar un uso problemático de la tecnología?

“A grandes rasgos, añadiría tres indicadores muy útiles: primero, interferencia, cuando el móvil manda por encima de lo importante (comer, dormir, estudiar, quedar, hablar); segundo, regulación emocional, la pantalla se convierte en la única vía para calmarse o evadirse; y tercero, deterioro del vínculo, hay conflicto constante en casa o se rompen rutinas y conversaciones.

Y un matiz importante: soy crítica con la demonización simplista. ‘Tecnología’ no es una sola cosa. No es lo mismo un uso creativo, social y con límites, que un consumo diseñado para enganchar. Por eso, más que culpabilizar, el foco debería ser: qué función cumple ese uso en el menor (escape, pertenencia, dopamina, anestesia) y qué alternativas y límites sostenibles podemos construir en familia”.

– Desde tu experiencia, ¿qué riesgos psicológicos y sociales puede conllevar una implementación irresponsable de la inteligencia artificial?

“Es realmente el último eslabón humano si no lo llevamos a cabo de una forma consciente y responsable. Hemos vivido centenarios de años evolucionando pero las máquinas siempre han obedecido nuestras ordenes. Ahora, la Inteligencia Artificial puede acabar dándonos las ordenes si no aprendemos a utilizarla a nuestro favor.

La IA es el primer ‘eslabón’ tecnológico que no solo ejecuta órdenes: puede influir en decisiones, priorizar información y moldear conductas a escala. Si se implementa sin responsabilidad, el riesgo no es solo técnico; es humano. Hablo de tres grandes impactos: pérdida de autonomía (cuando delegamos criterio en recomendaciones y sistemas opacos); erosión de la confianza (por decisiones automáticas difíciles de explicar o corregir); y daño psicológico (por presión de rendimiento, vigilancia, comparación y deshumanización).

Además, una IA mal gobernada amplifica desigualdades: sesgos en selección, evaluación o acceso; y puede normalizar prácticas de control (monitorización constante, scoring interno) que deterioran clima laboral y salud mental.

El problema no es la IA: es su uso sin límites, sin transparencia y sin una ‘capa humana’ que entienda cómo funciona la mente bajo estrés, incertidumbre y asimetría de poder”.

– ¿Cómo pueden las empresas integrar la IA sin comprometer la salud mental ni la ética?

“Esa integración exige método. La integración responsable tiene que ser un proyecto de cultura, no solo de IT. Yo lo abordo con un marco claro: ‘IA con gobernanza + diseño humano + métricas de bienestar’.

Primero, gobernanza: definición de usos permitidos/prohibidos, trazabilidad, evaluación de impacto (riesgos psicológicos, sesgos, privacidad) y canales de revisión.

Segundo, diseño humano: IA como apoyo, no como sustituto del criterio; controles para reducir fricción cognitiva; y evitar la hiper-vigilancia como “gestión”.

Tercero, métricas: no medir solo velocidad o ahorro, sino calidad de decisiones, carga cognitiva, errores, rotación, burnout, satisfacción y confianza.

Y, sobre todo, formación: si no se entrena a la gente en uso crítico de IA, se crea dependencia, miedo o abuso”.

– ¿Crees que la IA puede convertirse en una aliada del bienestar psicológico o estamos aún lejos de ese escenario?

“Puede ser una aliada, pero no es terapia por sí misma. Bien utilizada, puede funcionar como ‘muleta’ o apoyo: mejorar accesibilidad, ofrecer psicoeducación, ayudar a estructurar hábitos, detectar señales tempranas (con límites claros) o facilitar acompañamiento en poblaciones vulnerables.

En personas mayores, por ejemplo, puede ser útil contra la soledad no deseada: conversación, recordatorios, rutinas, estimulación cognitiva y apoyo en tareas que dan autonomía. Pero hay una línea roja: no sustituir vínculo humano ni convertir la compañía artificial en la única compañía. El objetivo es complementar, no reemplazar. Si se diseña con ética, puede aumentar bienestar; si se diseña para enganchar o recortar costes sin cuidado, puede empeorarlo”.

– ¿Qué papel deberían jugar los profesionales de la psicología en el desarrollo y supervisión de tecnologías basadas en IA?

“Un papel central y continuo, no decorativo. La psicología aporta lo que muchas implementaciones olvidan: cómo decide la gente, qué sesgos tenemos, cómo se construye confianza, qué genera estrés y qué impulsa conductas problemáticas.

En la práctica, debemos estar en tres fases: diseño (para prevenir daño), validación (para medir impacto real) y supervisión (para ajustar, auditar y corregir).

La ciberpsicología y ciencias del comportamiento están específicamente creadas para esta parte no clínica, para productos, UX, comunicación, adopción y prevención de dependencia.

La IA se integra en vidas y rutinas: si no se entiende al humano, se construye tecnología que ‘funciona’ pero rompe personas”.

– ¿Cómo afecta la sobreestimulación digital a la productividad y toma de decisiones en el entorno corporativo?

“Soy empresaria y soy psicóloga. Veo las dos partes del mismo rompecabezas. Entiendo que la vida del empresario no es fácil, que todo cuesta, pero entregarse a ciegas a manos de la tecnología descontrolada puede llevarnos a un extremo del que no habrá marcha atrás.

Afecta directamente a lo que más cuesta en empresa: errores, mala priorización y decisiones pobres. La sobreestimulación fragmenta atención, reduce memoria de trabajo y eleva la impulsividad. El resultado es un equipo reactivo: responde mucho, decide poco; trabaja muchas horas, pero con menor profundidad.

La hiperconexión permanente da una ilusión de control, pero genera fatiga y baja la calidad del juicio. Y en entornos complejos, el juicio es el activo.

Si la organización vive en interrupción constante (chats, notificaciones, reuniones sin propósito), pierde foco estratégico y cae en “productividad aparente”.

– ¿Qué errores cometen con más frecuencia las empresas al implantar nuevas tecnologías?

“La falta de visión. El error principal es implantar sin visión humana. Se compra tecnología para ‘ser más rápidos’ sin definir el problema, sin rediseñar procesos y sin preparar a las personas. Luego llegan el rechazo, el uso caótico o la dependencia.

Otros errores frecuentes: medir éxito solo por adopción o ahorro (y no por impacto real), ignorar la carga cognitiva (demasiadas herramientas), crear cultura de disponibilidad 24/7, y no establecer reglas de comunicación (cuándo chat, cuándo email, cuándo reunión, y cuándo nada).

En estos casos, la tecnología no arregla desorden: lo amplifica”.

– ¿Qué estrategias recomendarías para mejorar la productividad sin caer en el agotamiento digital?

“Volver a lo básico: foco, diseño del trabajo y límites claros. Mis recomendaciones suelen ir en cuatro líneas:

Primero, ‘arquitectura de atención’: bloques de trabajo profundo sin interrupciones, ventanas de comunicación, y reglas de notificación.

Segundo, higiene de canales: menos chats internos para todo, menos cadenas infinitas de emails, y reuniones con objetivo, agenda y decisión.

Tercero, claridad operativa: tareas bien definidas, briefings cortos, objetivos medibles y responsables claros.

Cuarto, cultura: que el valor sea calidad y resultado, no presencia y respuesta inmediata.

Y sí: en España seguimos confundiendo horas con productividad. Países más eficientes protegen el tiempo de concentración. Nadie puede hacer trabajo cognitivo de calidad contestando a la vez mails, chats y WhatsApp. Eso no es rendimiento: es sobrecarga”.

– ¿Estamos midiendo correctamente el éxito tecnológico o seguimos priorizando la velocidad frente al bienestar?

“No estamos sacando partido a todo lo que la tecnología nos ofrece por falta de formación y a la vez, la falta de formación nos impide el bienestar.

Seguimos priorizando velocidad y ‘outputs’ visibles. El problema es que lo rápido sale caro si sube el error, baja la creatividad, aumenta el burnout o se pierde confianza. Una transformación tecnológica madura mide también lo invisible: carga mental, calidad de decisiones, aprendizaje, seguridad psicológica y sostenibilidad del rendimiento.

Además, hay una paradoja: falta formación y eso impide aprovechar la tecnología; y esa misma falta de formación genera estrés y malestar. Por eso, si una empresa quiere retorno real, tiene que invertir en alfabetización digital + pensamiento crítico + bienestar. No es un ‘extra’: es la base del ROI”.

– ¿Qué responsabilidades tienen las familias en la educación digital de niños y adolescentes?

“La familia es la primera escuela de hábitos. Su responsabilidad no es ‘controlar pantallas’ únicamente, sino enseñar criterio, límites y sentido. Rutinas de sueño, espacios sin móvil, ejemplo adulto coherente, conversación sobre riesgos y sobre identidad digital. Y, sobre todo, acompañamiento: no basta con prohibir; hay que entender qué busca el menor online (pertenencia, validación, evasión) y ofrecer alternativas reales.

Las escuelas pueden y deben apoyar, pero la cultura digital cotidiana se construye en casa: lo que se permite, lo que se conversa y lo que se modela”.

– ¿Qué cambios urgentes debería incorporar el sistema educativo en relación con el uso de pantallas y tecnología?

“Lo primero es separar ‘tecnología’ de ‘pantalla’. No todo lo digital es consumo pasivo. Hay tecnología para crear, programar, investigar, diseñar, aprender con propósito. El debate no puede ser solo ‘sí/no pantallas’, sino ‘para qué, cuándo, cómo y con qué evidencia’.

Los cambios urgentes que veo más necesarios son: educación mediática (educar sobre la desinformación, los algoritmos, los sesgos), formación en atención y hábitos (cómo estudiar en la era de la distracción), normas claras sobre móviles en aula según edad y objetivos, y capacitación docente real.

También son clave más pedagogías creativas: hay profesores que usan herramientas de forma brillante para despertar curiosidad sin convertir el aula en un scroll infinito, captando la atención y el interés de los estudiantes de forma brillante”.

– ¿Cómo podemos educar en pensamiento crítico en un entorno dominado por algoritmos?

“Leyendo, debatiendo, escribiendo, participando. Es decir, re-entrenando las capacidades que el entorno erosiona: lectura profunda, escritura, debate y paciencia cognitiva. Pensamiento crítico es aprender a formular preguntas, verificar fuentes, detectar sesgos y sostener la duda sin caer en el impulso.

En práctica debemos: leer textos largos, discutirlos, argumentar por escrito, comparar perspectivas, analizar cómo un algoritmo te muestra una versión del mundo, y enseñar a ‘parar’ antes de compartir o creer.

El antídoto a la manipulación algorítmica no es desconexión total: es criterio”.

– ¿De qué manera la tecnología está influyendo en la sexualidad y las relaciones afectivas actuales?

“De una manera muy negativa por desgracia. Como mujer, me preocupa mucho este tema. Está cambiando el guion de la intimidad: expectativas, ritmo, disponibilidad y forma de vincular.

En lo positivo, facilita encuentro, exploración y acceso a información pero en lo problemático está introduciendo el consumo rápido, la comparación constante y una lógica de mercado aplicada a las personas (matching, descarte, validación).

Como mujer, me preocupa especialmente cómo ciertos productos (la pornografía extrema, las dinámicas de apps, la cultura de la imagen) pueden distorsionar el deseo, aumentar inseguridad y erosionar la conexión emocional.

La intimidad necesita presencia, tiempo y vulnerabilidad; la tecnología tiende a empujar hacia lo inmediato, lo performativo y lo medible”.

– ¿Qué efectos tiene el consumo digital (redes, pornografía, apps) en la autoestima y el deseo?

“Puede afectar de tres formas. Primero, comparación: las redes y filtros elevan estándares irreales y disparan inseguridad corporal. Segundo, dopamina y habituación: el consumo pornográfico frecuente, especialmente si es cada vez más intenso, puede reducir sensibilidad al estímulo real, afectar expectativas y generar disociación entre excitación y vínculo. Tercero, la mercantilización del vínculo: en apps, la dinámica de catálogo puede impactar autoestima, tolerancia al rechazo y capacidad de construir intimidad sostenida. (por desgracia, todo esto afecta de forma más negativa a la mujer y es un riesgo de retroceso importante.

No soy para nada moralista. Estoy hablando de neuropsicología y aprendizaje: lo que consumes repetidamente entrena tu respuesta emocional y sexual”.

– ¿Estamos hablando lo suficiente de educación sexual en la era digital?

“No. Y en algunos aspectos hemos retrocedido. Se habla mucho de sexo ‘en general’, pero poco de sexo en el contexto digital: el consentimiento en sexting, la privacidad, la pornografía como educador informal, coerción, presión social, violencia digital, expectativas y límites.

Si no educamos, la educación la da el algoritmo. Y eso es un riesgo enorme”.

– ¿Cómo se puede construir una relación sana con la tecnología también en la intimidad?

“Sí, claro que sí, pero a la edad adecuada, con consentimiento, privacidad y propósito. La tecnología puede sumar si se usa para comunicar, jugar o explorar dentro de un vínculo seguro. Pero requiere límites: no invadir momentos de presencia, no sustituir conversación por pantalla, y proteger la intimidad como un espacio ‘offline’ en el sentido emocional: sin interrupciones, sin exhibición y sin presión de rendimiento.

En jóvenes debemos trasladar una educación clara, gradual y realista. En adultos debemos llegar a acuerdos de pareja, mantener una higiene digital (móvil fuera de la cama) y una revisión de hábitos si aparece la dependencia, la comparación o la desconexión emocional”.

– ¿Qué retos psicológicos traerán los próximos avances tecnológicos?

“El reto central es mantener identidad, autonomía y valores en un entorno donde sistemas inteligentes anticipan, recomiendan y optimizan por nosotros.

Estamos frente a una era super interesante. Una era donde podremos avanzar mucho en conocimiento de nuestro cuerpo y mente gracias a la tecnología pero a la vez, nos hará plantear muchas cosas como individuos y como sociedad.

Pero también tensiones: dependencia cognitiva, pérdida de habilidades, presión de rendimiento, manipulación de atención y crisis de sentido (¿qué queda de humano si todo se automatiza?).

Por eso digo que es una era fascinante y exigente: avanzaremos mucho, pero nos obligará a redefinir límites, dignidad, privacidad y propósito. Necesitamos una mente “bien amueblada” para no ser arrastrados por la inercia tecnológica”.

– ¿Qué habilidades emocionales serán imprescindibles para convivir con la IA en los próximos años?

“Criterio y pensamiento crítico, sí, pero también autorregulación y tolerancia a la incertidumbre quizás serían habilidades a grandes rasgos pero añadiría habilidades específicas como la capacidad de atención sostenida, la ética cotidiana (decidir qué no hacemos aunque podamos), la comunicación clara, y madurez para no delegar identidad y decisiones en sistemas que no viven consecuencias.

La habilidad clave será sostener lo humano: juicio, empatía, creatividad y responsabilidad”.

– ¿Qué consejo darías a profesionales y empresas que quieren avanzar tecnológicamente sin perder el factor humano?

“Que inviertan en dos capas al mismo nivel: tecnología y comportamiento humano. Implementar IA o nuevas herramientas sin formación, sin reglas y sin cuidado del bienestar es una receta para el desgaste y el error.

Mi consejo es definir bien nuestro propósito (qué problema resolvemos), rediseñar procesos, formar en uso crítico (no solo ‘cómo se usa’, sino ‘cuándo no’), medir el impacto humano (carga mental, errores, rotación) y crear una gobernanza ética real.

La ventaja competitiva del futuro no será solo la IA: será la calidad humana con la que se use”.

– Si una empresa, familia o profesional desea contactar contigo o solicitar tu asesoramiento, ¿cómo puede hacerlo?

“Pueden contactarme a través de mi web, The Net Psychology, o por LinkedIn. También pueden escribirme directamente por email para propuestas, consultoría y formación in-company en bienestar digital, ciberpsicología aplicada y ética de IA: vilalta@thenetpsychology.com”.

Este sitio web utiliza cookies para mejorar tu experiencia. Asumiremos que estás de acuerdo, pero puedes desactivarlas si lo deseas. Ventana emergente sobre la ley de cookies. Aceptar Leer más

Política de privacidad y cookies