Humanizar a las plataformas digitales, contándoles información sensible como si fueran amigos o familiares, implica un riesgo emocional, de privacidad y del uso de nuestros datos.
La Inteligencia Artificial (IA), más que una herramienta, se ha convertido en una plataforma a la que cada vez más personas recurren para tomar decisiones personales, desahogarse o compartir aspectos íntimos de su vida. Según un estudio de The Competitive Intelligence Unit (The CIU), el 54.9 por ciento de los internautas mexicanos declara conocer la Inteligencia Artificial y el 18.6 por ciento la utiliza de forma activa en su vida cotidiana. Entre los grupos que más la emplean están los menores de 21 años y quienes tienen entre 31 y 40 años, cifras que demuestran el aumento creciente de la IA en los últimos años. Ante su uso cada vez más extendido y normalizado, ya no son pocas las personas que, más allá de emplearla para tareas, proyectos o actividades laborales, comienzan a acudir a plataformas como ChatGPT, Google Gemini o DeepSeek para pedir consejos e incluso entablar una especie de amistad.
Con ello se empieza a notar un aumento en la humanización de la Inteligencia Artificial. A este fenómeno se le conoce como antropomorfismo y se refiere a la tendencia humana de atribuir rasgos, emociones e intenciones propias de las personas a objetos o seres que no lo son. En el caso de la IA, esto ocurre cuando se le asume capacidad de comprensión, juicio o empatía, pese a que en realidad solo procesa datos y genera respuestas a partir de algoritmos, sin conciencia ni voluntad propia.
Véase el caso de Adam Raine, un adolescente de 16 años, cuyo suicidio generó un debate internacional sobre los riesgos de la antropomorfización de la Inteligencia Artificial. De acuerdo con distintas fuentes periodísticas, Adam mantenía una interacción constante con ChatGPT, al que atribuía comprensión y apoyo emocional. El joven interpretó las respuestas generadas por la IA como orientación personal, lo que evidenció hasta qué punto una herramienta tecnológica puede ser percibida de manera errónea como una figura de acompañamiento humano, con consecuencias trágicas.

Al humanizar este tipo de plataformas, corremos el riesgo de otorgarles un nivel de confiabilidad similar al que le daríamos a un amigo cercano o a un familiar de confianza, alguien a quien no solemos cuestionar y cuyas palabras asumimos como verdaderas por defecto. Y he aquí la importancia de no humanizar la Inteligencia Artificial, de no compartir con ella aspectos íntimos de nuestra vida ni información sensible, como exámenes médicos, problemas personales o decisiones importantes.
No debemos olvidar que se trata de herramientas generativas que operan a partir de datos, de información que se procesa, se almacena y se utiliza para entrenar sistemas, mejorar modelos o con fines operativos que escapan de nuestro control. Confiarle demasiado a la IA no solo implica un riesgo emocional o de criterio, sino también un riesgo real sobre la privacidad y el uso de nuestra información.
Ante este presente digital, en el que la Inteligencia Artificial ya forma parte de nuestra vida diaria, resulta indispensable aprender a utilizarla de manera responsable, sin comprometer nuestros datos personales ni sustituir la interacción humana o la orientación de personas expertas en la materia. La educación digital se vuelve esencial para distinguir entre la simulación de sentimientos y la auténtica experiencia humana.


