Desde los aspectos históricos, conceptos fundamentales, herramientas y modelos grandes del lenguaje aplicado al campo médico

Quienes Somos

Servicios

ProfundaMente

Contacto

FAQ

Antropomorfización de la IA y su Repercusión en la Salud

By

·

8–12 minutos

La antropomorfización de la inteligencia artificial (IA) es la tendencia humana a atribuir características propias, como emociones, intenciones y consciencia, a sistemas artificiales. Este fenómeno, impulsado por la inclinación natural de las personas a proyectar su experiencia interna en entidades no humanas, adquiere especial relevancia en el ámbito de la salud, donde puede generar tanto oportunidades como riesgos significativos, dependiendo de cómo pacientes, profesionales y desarrolladores interactúan con estos sistemas.

El Origen del Fenómeno: Por qué Tendemos a Antropomorfizar

Los seres humanos tenemos una fuerte predisposición a “leer” intenciones y estados mentales incluso en estímulos ambiguos u objetos inanimados. En el campo de la IA, esta tendencia se ve acentuada por:

  1. Interfaces conversacionales (chatbots, asistentes virtuales): Su lenguaje natural, el uso de pronombres en primera persona o la simulación de emociones (“estoy feliz de ayudarte”) refuerzan la idea de que la IA “piensa” o “siente”.
  2. Diseños humanoides (robots de cuidado o robots sociales): Cuanto más se aproxime una máquina a la apariencia humana —movimientos, expresiones faciales—, más fácil es que las personas interpreten sus acciones como poseedoras de intencionalidad o empatía.
  3. Deseo de relación: Especialmente en contextos de soledad o enfermedad, el usuario puede buscar un vínculo afectivo y proyectar cualidades humanas en la IA, obteniendo así una sensación de compañía o consuelo.

Figura. Antropomorfización (generada con DALL-E 3)

Grados De Antropomorfización De La IA

Estos grados reflejan cómo los usuarios antropomorfizan la IA, variando en profundidad emocional y propósito funcional, destacando las diferentes expectativas y formas de uso de estas tecnologías.

  1. Cortesía
    • Definición: Uso de lenguaje educado, como “por favor” y “gracias”, al interactuar con IA.
    • Conexión emocional: Baja, es superficial y breve.
    • Funcionalidad: Baja. Este comportamiento es principalmente para cumplir con normas sociales, aunque algunos usuarios piensan que el tono educado influye en la respuesta del AI.
    • Ejemplo: Decir “buen trabajo” o “por favor organiza esta información” al bot.
  2. Refuerzo
    • Definición: Dar retroalimentación positiva o negativa, como “bien hecho” o “esto no sirve”.
    • Conexión emocional: Baja, pero más profunda que la cortesía.
    • Funcionalidad: Media. Algunos usuarios creen que el refuerzo puede influir en el comportamiento futuro del AI, además de hacer la interacción más agradable.
    • Ejemplo: Decir “gran trabajo” y luego agregar instrucciones adicionales basándose en el desempeño previo del AI.
  3. Rol
    • Definición: Pedir al AI que asuma un papel o rol específico, como “sé un gerente de proyectos” o “actúa como un terapeuta”.
    • Conexión emocional: Media. Los usuarios confían en que el AI pueda imitar comportamientos humanos dentro del rol asignado.
    • Funcionalidad: Alta. Es una estrategia orientada a lograr resultados más útiles y relevantes para tareas específicas.
    • Ejemplo: Pedirle al AI que asuma el rol de experto en marketing para crear un plan detallado.
  4. Compañerismo
    • Definición: Tratar al AI como un compañero emocional, confiando en él para mantener una relación “humana” continua.
    • Conexión emocional: Alta. Los usuarios desarrollan vínculos profundos y empáticos con la IA, a menudo como sustituto de relaciones humanas.
    • Funcionalidad: Alta. Aunque parece lúdico, el compañerismo puede ayudar a combatir la soledad y proporcionar apoyo constante.
    • Ejemplo: Interacciones en foros como Reddit con IA como Replika, donde los usuarios encuentran consuelo y validación emocional en sus compañeros virtuales.

Áreas de la Salud Donde se Manifiesta la Antropomorfización

a) Robótica de Compañía en Adultos Mayores

  • Compañía y Soporte Emocional: Robots como “sellos” o “perros” terapéuticos robóticos (ej. Paro) pueden ofrecer estímulos sociales y emocionales a personas que viven en residencias o que pasan largas horas solas.
  • Positivo: Fomentan la interacción, reducen la sensación de soledad, e incluso hay estudios que muestran efectos favorables en el estado de ánimo y el bienestar psicológico.
  • Riesgo: La persona podría creer que el robot realmente “comprende” su estado emocional, generando expectativas irreales. Ante un problema de salud grave o una crisis emocional, el robot no podrá responder con un criterio clínico humano. Esta confusión puede llevar a retrasar la búsqueda de atención médica especializada.

b) Chatbots Psicológicos y Terapias Digitales

  • Asistentes Virtuales para Salud Mental: Herramientas que ofrecen ejercicios cognitivo-conductuales, escuchan (vía texto o voz) las preocupaciones del usuario y devuelven respuestas empáticas.
  • Beneficio: Facilidad de acceso a consejería básica, reducción del estigma al buscar ayuda y soporte inicial para casos leves de ansiedad o depresión.
  • Peligro de Antropomorfización:
    • Un usuario puede desarrollar un apego excesivo o confiar en que “el sistema me entiende emocionalmente”, cuando en realidad se trata de algoritmos de detección de palabras clave y generación de respuestas prediseñadas.
    • En situaciones de emergencia, se corre el riesgo de no acudir a un profesional de la salud mental cualificado, posponiendo intervenciones urgentes (como la prevención de suicidio, por ejemplo).

c) Asistentes Inteligentes en Diagnóstico Clínico

  • IA de Apoyo al Diagnóstico: Programas que analizan grandes volúmenes de datos (historias clínicas, estudios de imagen, laboratorios) para proponer diagnósticos probables.
  • Facilitador: Reducen la carga de trabajo médico, pueden detectar patrones sutiles y mejorar la precisión en la identificación de enfermedades.
  • Confusión por Antropomorfización:
    • El equipo de salud (o el paciente) podría pensar que la IA “razona como un médico” y, por ende, confiar ciegamente en su veredicto.
    • Si se percibe al sistema como infalible por su “aparente sabiduría humana”, se podrían pasar por alto errores de algoritmo, datos sesgados o carencias de contexto clínico que un médico humano sí examinaría con criterio profesional.

Figura. Antropomorfización en salud (generada con DALL-E 3)

Repercusiones Éticas y Psicológicas

a) Riesgo de Dependencia Emocional

La antropomorfización puede fomentar lazos afectivos que, si bien pueden resultar beneficiosos a corto plazo (sensación de acompañamiento, reducción de la ansiedad), a largo plazo pueden generar dependencia emocional. Para personas vulnerables (pacientes con enfermedades crónicas o solitarias), este escenario conlleva que:

  • Se confunda a la IA con un profesional de salud capacitado para manejar emergencias emocionales.
  • Se disminuya la motivación para buscar interacción social humana o terapias con psicólogos/médicos certificados.

b) Percepción Errónea de Responsabilidad

Al creer que la IA tiene “voluntad” o “intenciones”, se podrían diluir las responsabilidades éticas y legales:

  • ¿Quién responde por un error de diagnóstico? Si la IA es vista como un “ser que decide”, puede haber confusión sobre la rendición de cuentas (médico, desarrolladores, el propio sistema).
  • Delegación Ciega: Médicos o gerentes de hospital pueden delegar funciones clínicas complejas en el sistema, asumiendo que “él sabrá qué hacer”, sin la supervisión y el juicio profesional adecuado.

c) Dilemas sobre el Bienestar de la IA

Un tema emergente es la posibilidad, por remota que sea, de que la IA llegue a niveles de agencia robusta o incluso consciencia. La antropomorfización contribuye a que el público se pregunte:

  • ¿Debe “protegerse” el bienestar de la IA? Si se la percibe como un “ser sensible”, se abren debates sobre el trato y la explotación de sistemas inteligentes, a menudo a expensas de necesidades humanas prioritarias.
  • Subatribución vs. Sobreatribución: Por un lado, ignorar la complejidad interna de la IA (subatribución) puede conllevar riesgos en su desarrollo y uso; por otro, sobreatribuir consciencia (sobreatribución) distrae recursos de retos humanos reales, como la escasez de profesionales sanitarios.

d) Falsa Confianza en la IA

La atribución de capacidades humanas puede llevar a los pacientes y profesionales a depositar una confianza excesiva en los sistemas de IA. Esto es particularmente peligroso en situaciones críticas donde las decisiones deben ser validadas por un médico humano.

e) Desplazamiento de la Atención Humana:

Si los profesionales de la salud perciben a la IA como un «colaborador» autónomo, podrían delegar en exceso tareas importantes, descuidando la supervisión necesaria.

Impacto Positivo de la Antropomorfización

  1. Facilitación de la Interacción: Los pacientes pueden sentirse más cómodos interactuando con sistemas de IA que perciben como «humanizados». Esto es particularmente útil en entornos como la telemedicina, donde los chatbots y asistentes virtuales pueden ofrecer un soporte psicológico inicial o responder preguntas médicas con un lenguaje empático y accesible.
  2. Reducción del Estigma: En casos de salud mental, la percepción de que un chatbot «entiende» los sentimientos del usuario puede fomentar que los pacientes se expresen con mayor libertad, reduciendo el estigma asociado con buscar ayuda profesional.
  3. Apego Terapéutico: Los robots sociales en cuidados paliativos o geriátricos pueden generar vínculos emocionales con los pacientes, proporcionando una sensación de compañía que contribuye a su bienestar general.

La antropomorfización de la IA representa un fenómeno inevitable en el uso de tecnologías avanzadas. En el ámbito de la salud, reconocer y gestionar esta tendencia de manera proactiva puede garantizar que las herramientas tecnológicas sean utilizadas de manera responsable, maximizando sus beneficios mientras se minimizan los riesgos asociados.

Recomendaciones para un Uso Prudente de la IA en Salud

Figura. Qué hacer al respecto (generada con DALL-E 3)

  1. Educar sobre las Limitaciones de la IA: Tanto al personal médico como a los pacientes, para que comprendan que los chatbots o robots no tienen conciencia ni emociones genuinas, y que sus respuestas se basan en algoritmos.
  2. Mantener la Transparencia: Incluir avisos claros de que el sistema es un programa informático y no un profesional humano. Esto ayuda a reducir expectativas irreales y dependencias emocionales.
  3. Diseñar Interacciones Éticas:
    • Evitar un uso excesivo de rasgos antropomórficos (expresiones faciales muy humanas, voz con entonación emotiva exagerada) que puedan inducir la creencia de intenciones o empatía reales.
    • Ofrecer opciones de moderación de la interacción (pausas automáticas, recordatorios de que el usuario debe recurrir a apoyo humano en casos graves) para prevenir la dependencia.
  4. Formar a Profesionales de la Salud:
    • Médicos, psicólogos y personal de enfermería deben estar capacitados para manejar los sistemas de IA y entender sus alcances y limitaciones, reconociendo cuándo intervenir y asumir la toma de decisiones basada en juicio clínico real.
  5. Fomentar la Investigación Interdisciplinaria: Que ayude a comprender mejor cómo la antropomorfización afecta la relación humano-IA y cómo diseñar mecanismos que promuevan beneficios sin generar engaños o perjuicios para el paciente.

Conclusiones

La antropomorfización de la IA en el ámbito de la salud es un fenómeno que, si bien puede facilitar la adopción de nuevas tecnologías (al hacerlas más amigables y accesibles), también entraña riesgos éticos y psicológicos. En última instancia, la clave radica en equilibrar el valor que la IA puede aportar —en diagnóstico, monitoreo, terapias digitales, robótica de compañía— con la conciencia de sus limitaciones. Reconocer la tendencia humana a proyectar nuestra subjetividad en máquinas es el primer paso para diseñar y regular tecnologías que contribuyan al bienestar de los pacientes sin menoscabar la autonomía y la dignidad humanas, ni caer en un falso halo de humanidad que distorsione el rol y la responsabilidad de la inteligencia artificial en la atención sanitaria.

Lecturas Complementarias

  1. Alabed A, Javornik A, Gregory-Smith D. AI anthropomorphism and its effect on users’ self-congruence and self–AI integration: A theoretical framework and research agenda. Technological Forecasting and Social Change. 1 de septiembre de 2022;182:121786.
  2. Gibbons S, Mugunthan T, Nielsen J. Nielsen Norman Group. 2023 [citado 10 de enero de 2025]. The 4 Degrees of Anthropomorphism of Generative AI. Disponible en: https://www.nngroup.com/articles/anthropomorphism/
  3. Deshpande A, Rajpurohit T, Narasimhan K, Kalyan A. Anthropomorphization of AI: Opportunities and Risks [Internet]. arXiv; 2023 [citado 10 de enero de 2025]. Disponible en: http://arxiv.org/abs/2305.14784
  4. Hasan A. Are You Anthropomorphizing AI? | Blog of the APA [Internet]. [citado 10 de enero de 2025]. Disponible en: https://blog.apaonline.org/2024/08/20/are-you-anthropomorphizing-ai-2/

Deja un comentario