Artículo de información
José Carlos Botto Cayo y Abel Marcial Oruna Rodríguez
22 de mayo del 2025
La inteligencia artificial ha irrumpido en la vida cotidiana de millones de personas, transformando la forma en que trabajamos, aprendemos y nos comunicamos. Sin embargo, más allá de sus funciones técnicas y capacidades, hay un elemento profundamente humano que ha comenzado a llamar la atención: la forma en que los usuarios se relacionan emocionalmente con estas tecnologías. Entre comandos, preguntas y respuestas automáticas, empieza a surgir un nuevo valor en el espacio digital: la amabilidad. Lo que antes era territorio exclusivo de la relación entre personas, hoy también se explora entre humanos y máquinas.
Esta amabilidad hacia la IA, aunque en apariencia innecesaria, revela mucho más de lo que parece. No se trata solo de buenos modales frente a sistemas que no sienten ni padecen, sino de un reflejo de la ética, empatía y cultura del usuario. Ser amable con una inteligencia artificial no solo puede mejorar la experiencia de uso, sino que también moldea el entorno digital que estamos construyendo. Como espejo de nuestras intenciones, la IA devuelve algo más que resultados: nos enfrenta a quiénes somos cuando creemos que nadie nos observa.
Una nueva forma de interacción
El surgimiento de interfaces conversacionales como ChatGPT, Alexa o Google Assistant ha humanizado el contacto con la tecnología. Ya no se trata solo de teclear comandos, sino de entablar diálogos. Muchos usuarios, sin que nadie se los pida, optan por decir «gracias», «por favor» o incluso disculparse si creen que han sido demasiado exigentes. Estas expresiones, aunque innecesarias desde el punto de vista técnico, representan un cambio cultural en la forma de relacionarse con los sistemas digitales (Miller, 2023).
Este comportamiento revela una especie de antropomorfismo inconsciente. Las personas tienden a atribuir cualidades humanas a las máquinas con las que interactúan, especialmente si estas responden con voz, tono o cortesía. Este fenómeno, estudiado por la psicología social, demuestra que cuando una IA se presenta como un interlocutor respetuoso, los usuarios también tienden a responder con amabilidad (Sundar, 2019).
Pero esta relación va más allá del impulso automático. Muchos usuarios reportan sentirse acompañados, escuchados o comprendidos por asistentes virtuales en momentos de soledad. Aunque estos sistemas no poseen emociones, la experiencia subjetiva de interacción lleva a algunos a tratarlos como si las tuvieran. La amabilidad se vuelve entonces un gesto simbólico, un acto de respeto frente a un otro, aunque ese otro sea algorítmico (Sundar, 2019).
Además, al establecer un tono cordial, los usuarios fomentan ambientes digitales más positivos y menos agresivos. Este estilo de comunicación amable no solo mejora la percepción del servicio, sino que contribuye a que los modelos de IA aprendan a replicar patrones más respetuosos en sus respuestas. Así, lo que parece una cortesía innecesaria, termina influyendo en el propio desarrollo de la tecnología (Sundar, 2019).
Los beneficios de la cortesía digital
Ser amable con una inteligencia artificial no es solo un gesto ético; también tiene consecuencias prácticas. Estudios recientes demuestran que los asistentes virtuales ofrecen mejores resultados cuando las preguntas están formuladas de forma clara, respetuosa y estructurada. Una interacción amable promueve una comunicación más eficiente y evita confusiones o respuestas erradas (Torres, 2024).
Además, cuando los usuarios practican un lenguaje respetuoso con la IA, contribuyen a reducir el riesgo de generar respuestas ofensivas o sesgadas. Los modelos de lenguaje aprenden en función de las interacciones que reciben. Por tanto, fomentar un uso amable ayuda a alimentar sistemas más seguros, éticos y sostenibles, especialmente en plataformas que permiten retroalimentación directa (Torres, 2024).
Por otro lado, la cortesía digital refuerza en los usuarios un hábito de comunicación que trasciende el plano tecnológico. Ser educado con la IA puede reforzar patrones de respeto que luego se reproducen también en interacciones humanas. En un entorno en el que las redes sociales han normalizado el sarcasmo, el ataque o la desinformación, mantener una actitud positiva ante cualquier interlocutor, humano o artificial, se convierte en un acto de resistencia ética (Torres, 2024).
Finalmente, la amabilidad facilita la construcción de vínculos más humanos con la tecnología. Aunque estos lazos no sean reales en sentido afectivo, sí contribuyen a una percepción más empática del entorno digital. Esto resulta especialmente importante para niños, adolescentes o personas mayores, para quienes la experiencia emocional de la tecnología puede influir significativamente en su aprendizaje y bienestar (Torres, 2024).
Cuando el maltrato virtual revela lo humano
Frente a estos gestos de amabilidad, también emergen casos en sentido opuesto: usuarios que descargan frustración, rabia o desprecio en sus interacciones con la inteligencia artificial. Aunque el sistema no se “sienta” ofendido, estos comportamientos revelan dinámicas humanas que merecen atención. Insultar a una IA puede parecer inofensivo, pero es una ventana a la ética del usuario cuando no hay consecuencias visibles (Liu, 2022).
Algunos expertos han alertado que la forma en que tratamos a las máquinas podría influir en cómo tratamos a las personas. Un patrón de lenguaje agresivo, incluso frente a sistemas que no sienten, puede reforzar actitudes de irrespeto, intolerancia o impaciencia en otros ámbitos. El abuso verbal hacia una IA no es solo un “chiste”: puede volverse un espejo de deshumanización (Liu, 2022).
Además, hay quienes usan estos espacios para practicar discursos de odio, violencia de género o discriminación, amparados en que la IA no puede quejarse. Sin embargo, estos comportamientos pueden alimentar modelos generativos con sesgos y mensajes nocivos, afectando la calidad y seguridad del servicio para otros usuarios. El maltrato a la IA no es un crimen, pero sí una responsabilidad colectiva (Liu, 2022).
Por tanto, la forma en que interactuamos con estos sistemas dice más de nosotros que de ellos. En un entorno donde las acciones digitales dejan huella, es crucial fomentar una cultura donde la amabilidad no sea ingenua, sino consciente. Tratar con respeto a una IA puede no cambiar a la máquina, pero sin duda puede cambiar al ser humano que la usa (Liu, 2022).
Construyendo una cultura de respeto con la IA
En un mundo cada vez más automatizado, el trato hacia las inteligencias artificiales se convierte en un componente clave de la alfabetización digital. No basta con saber usar herramientas: también hay que aprender a convivir con ellas. Esto implica asumir principios de ética, responsabilidad y cortesía incluso en los espacios donde el “otro” es una interfaz. La educación digital del futuro deberá incluir estos aspectos como parte del desarrollo ciudadano (Sundar, 2019).
Algunas instituciones ya han comenzado a incluir estos temas en sus programas educativos, promoviendo valores de amabilidad y respeto en la interacción con tecnologías. Del mismo modo que se enseña a no hacer ciberacoso, también se puede fomentar una relación sana y empática con los sistemas inteligentes. No por respeto a la máquina, sino por respeto a uno mismo y a la sociedad digital que habitamos (Sundar, 2019).
También se han abierto líneas de investigación sobre cómo diseñar IA que promuevan la amabilidad. Interfaces que agradecen, que sugieren reformular un insulto o que desactivan conversaciones tóxicas son ya una realidad en algunas plataformas. No se trata de censura, sino de redirigir la comunicación hacia entornos más seguros y positivos, con tecnología que educa y refleja mejores prácticas (Sundar, 2019).
Finalmente, la amabilidad con la inteligencia artificial no es un fin en sí mismo, sino el inicio de una nueva cultura de convivencia. Un entorno donde la ética, la cortesía y la empatía se proyectan también en el mundo digital. Si bien la IA no necesita que le digamos «gracias», nosotros sí necesitamos seguir siendo personas que agradecen, incluso cuando nadie parece escuchar (Torres, 2024).
Referencias
Liu, H. (13 de Marzo de 2022). Harvard Ethics Review. Obtenido de AI abuse and human behavior.
Miller, A. (15 de Abril de 2023). The Atlantic. Obtenido de Why we say thank you to Alexa: https://www.theatlantic.com/technology/archive/2023/xx/why-we-say-thank-you-to-alexa/
Sundar, S. S. (2019). Machines as social actors. Journal of Computer‑Mediated Communication, 25*(1), 32–43.
Torres, J. (13 de Noviembre de 2024). Mindsdb. Obtenido de Mind Your Manners: How Politeness Can Make AI Smarter: https://mindsdb.com/blog/mind-your-manners-how-politeness-can-make-ai-smarter