Proyección emocional y los límites éticos de la compañía artificial
La Inteligencia Artificial ya no es una promesa futura, sino una presencia cotidiana. A medida que los sistemas conversacionales y los androides humanoides imitan con mayor precisión el lenguaje, las emociones y los gestos humanos, se vuelve imprescindible preguntarse no qué pueden hacer estas tecnologías, sino qué consecuencias tienen para quienes interactúan con ellas. Este artículo analiza los llamados Simulantes: sistemas de IA diseñados para fingir emociones y compañía, y examina sus implicaciones éticas desde la salud mental, la responsabilidad del diseño y los límites que una tecnología responsable no debería cruzar.
Introducción
Desde hace décadas, la Inteligencia Artificial ha estado presente en nuestras vidas. Gracias a numerosas obras de ciencia ficción, nos hemos familiarizado con robots y androides de aspecto humanoide más o menos evidente, y también con asistentes incorpóreos de IA que controlan naves espaciales, viviendas, edificios enteros u organizaciones, que pueden o no manifestarse mediante la voz o incluso en hologramas, o que directamente interaccionan con otros seres humanos de forma amistosa o romántica.
Actualmente, esto ha comenzado a ser parte de la realidad y no solo de la ficción. Los robots y asistentes controlados o potenciados por IA ya existen, y pronto serán parte de nuestra vida cotidiana, no solo como robots limpiadores como Roomba o asistentes de voz como Alexa, sino como verdaderos obreros, mayordomos, secretarios o incluso acompañantes sentimentales. Algunos de estos casos se analizarán con más detenimiento en el apartado de “Metodología” en este trabajo.
Respecto a las IA que imitan a los seres humanos, sus emociones e incluso su aspecto físico y comportamientos, creo que se hace necesario más que nunca reflexionar acerca las implicaciones éticas de su existencia, así como de su alineamiento con los valores y los derechos de los seres humanos, sin olvidar el factor de responsabilidad ante posibles perjuicios o daños provocados por estos sistemas.
En primer lugar, creo que es necesario clarificar que la IA, y en concreto los LLM, que son los modelos empleados en estos casos, solo son sistemas de Input-Output, llamados típicamente sistemas Question-Answer. Es decir, que solo son sistemas informáticos basados en Redes Neuronales y algoritmos complejos, que, gracias a su entrenamiento con miles de datos, son capaces de generar una respuesta probabilísticamente correcta, dentro de un rango de variabilidad y con un cierto grado de confianza, en base a la prompt que el usuario proporciona. Esto, como sabemos, no exime al resultado de posibles errores, y estos errores pueden deberse a múltiples causas, como pueden ser: fallos o lagunas en el entrenamiento, sesgos culturales o técnicos, o incluso alucinaciones.
La IA, por tanto, no tiene consciencia ni sentimientos propios, y nunca los tendrá, porque solo es una máquina, solo es una simulación. Es muy humano dotar de sentimientos a objetos inanimados, y más si nos recuerdan a nosotros mismos. ¿Quién no ha dado vida a sus muñecos alguna vez?
Este mecanismo psicológico se conoce como proyección. En general, la psicología, partiendo de los primeros conceptos psicoanalíticos al respecto, define la proyección como un mecanismo de atribución inconsciente de cualidades o emociones de uno mismo en otra persona. Mediante el análisis de las tendencias proyectivas de un individuo, por tanto, se pueden inferir sus motivaciones, problemas y frustraciones personales.
La proyección puede entenderse desde distintas perspectivas. En primer lugar, en sintonía con lo dicho, la proyección se puede considerar un mecanismo de defensa mediante el cual los humanos evitamos enfrentar ciertas características negativas de nuestra personalidad (carencias, defectos, impulsos, cualidades reprimidas, etc). De este modo, por una parte, rehuimos tomar responsabilidad sobre nuestros actos, sentimientos, pensamientos o impulsos, sobre todo si nos resultan inadecuados o cuestionables, y, por otra parte, conseguimos mantener nuestra noción del “yo” de forma narcisista (nuestras cualidades “buenas” son nuestro “yo”, pero las cualidades “malas” son de los demás).
En segundo lugar, la proyección puede ser positiva, con un sentido evolutivo de generación de apego hacia nuestros semejantes, también extensible a otros seres vivos y a seres inanimados. Al generar apego hacia otras personas, sencillamente, aumentamos nuestras posibilidades de supervivencia como especie, potenciando la cooperación y el altruismo, que son algunas de nuestras cualidades innatas que más relevancia han tenido en nuestra historia evolutiva. La proyección “positiva” podría entenderse también, por tanto, como una especie de sistema de reparto de la carga de responsabilidad sobre uno mismo.
Sin embargo, hay un aspecto fundamental que comprender sobre la proyección, y es que, en realidad, cuando dotamos a alguien o algo de emociones surgidas de nuestra propia mente o de nuestra propia percepción, lo que estamos haciendo es crear una imagen ficticia o distorsionada de esa persona o de ese objeto. Esto, habitualmente, nos lleva a crear expectativas que no se cumplen, porque en esencia son inventadas o infundadas en gran medida, ya que se basan en deseos instintivos y no en hechos concretos. Por ejemplo, ¿quién no ha tenido una discusión absurda por WhatsApp? Estas suelen ser discusiones con detonantes poco definidos o causadas por malentendidos. ¿Por qué sucede esto? Pues porque cuando la persona con la que estábamos hablando nos ha dicho una cosa que nos ha resultado hiriente, o viceversa, en realidad lo que estábamos haciendo era proyectar nuestras propias emociones y dotar a su mensaje de un significado o sentido que realmente no tenía. De modo que la discusión parecía inevitable, porque internamente a lo mejor estábamos deseando desfogarnos, y le echamos la culpa a la otra persona, cuando en realidad la causa ha sido una combinación entre una mala interpretación y una proyección. Esto se agrava si teníamos expectativas infundadas y esperábamos que esa persona hiciera o cumpliera tal o cual cosa, cuando en realidad, como ya he mencionado, esta expectativa responde más a nuestro deseo de que las cosas sean como queremos y no a la verdadera intención o motivación de la otra persona.
Teniendo esto en mente, es fácil imaginar (y comprobar empíricamente) lo que ocurrirá cuando un humano interacciona con un ChatBot o, en definitiva, con una IA conversacional, y ya no digamos con un robot de compañía con aspecto humano realista y potenciado con IA. Instintivamente, el humano en cuestión acabará generando apego hacia ese robot o hacia ese ChatBot, lo cual podría desencadenar en diversos problemas de salud mental.
Según multitud de estudios, el uso de las tecnologías de forma descontrolada (incluyendo el uso de las redes sociales) provoca diversos problemas de salud, tanto en adultos como en jóvenes, siendo los menores los más afectados, debido a su menor nivel de desarrollo cognitivo. Durante la infancia, la niñez, la juventud, la adolescencia y parte de la adultez (es decir, desde que nacemos hasta que cumplimos 25 años), los humanos desarrollamos nuestro cerebro y nuestras capacidades cognitivas, destacando entre ellas nuestras capacidades de socialización. Los seres humanos somos una especie prosocial e hipersocial, lo que quiere decir que tenemos comportamientos destinados a beneficiar a otros individuos sin buscar nada a cambio (salvo nuestro propio bienestar resultante), además de que necesitamos el contacto social para mantener nuestro equilibrio psicológico y emocional a niveles saludables.
Pasar demasiadas horas utilizando ordenadores, teléfonos móviles u otros dispositivos similares, como indican los estudios, impide que las personas interactúen de forma real, y esto afecta negativamente al desarrollo de cualidades como la empatía, la comunicación, la expresión de emociones, la resolución de conflictos y a la capacidad de liderazgo, entre otras. Se ha constatado que los dispositivos tecnológicos de este tipo provocan frecuentemente un estado adictivo multifactorial, sobre todo en adolescentes. El uso prolongado e intensivo de aparatos con pantallas provoca malestar físico (tensión ocular, insomnio, etc) al tiempo que genera pérdida de control de la conducta (tendencias impulsivas), desembocando así en una dependencia o adicción, con sus respectivas fases de síndrome de abstinencia y aumento de la tolerancia. La adicción se debe, entre otras cosas, al refuerzo generado por la inmediatez de acceso al contenido o al propio beneficio que el individuo obtiene mediante el uso de la tecnología, combinado con la necesidad creciente de sobrellevar o aliviar su malestar con el uso de ésta, a pesar de que paradójicamente sea la causa de dicho malestar. Como avalan muchas investigaciones, este círculo vicioso acaba provocando múltiples problemas mentales, como ansiedad e irritabilidad, depresión, impulsividad y compulsividad, trastornos alimentarios, intolerancia a la frustración, incapacidad de posponer la gratificación (inmediatez), disminución de la autoestima, disminución del rendimiento escolar o laboral, tendencia al aislamiento social, empobrecimiento del lenguaje, problemas comunicativos, hipersensibilidad al juicio ajeno y un largo etc.
Visto esto, habría que preguntarse si la existencia de sistemas de IA que simulen las emociones o el aspecto humano son éticas, si están alineadas y si pueden considerarse IA Responsable. En este punto hay que hablar sobre el propio diseño de los algoritmos. Para empezar, debe tenerse en cuenta que el proceso de proyección emocional se va a producir en todos los humanos en mayor o menor medida. Si esto no se hace consciente y no se controla, lo cual es habitual, ya que es un proceso inconsciente en gran medida, puede provocar que el usuario interaccione de forma insana con el sistema de IA, incluso llegando a desarrollar relaciones patológicas. Tanto si la persona padecía de antemano algún problema de salud como si no, esto podría ocurrir. En el caso de que el individuo ya padeciese alguna enfermedad, como depresión con o sin tendencias suicidas, la interacción patológica con una IA que simula ser su amigo o su pareja podría ser un agravante de su enfermedad y desembocar en resultados fatales.
Los sonados casos de Sewall Setzer y “Pierre”, de los que hablaré en el siguiente apartado, ejemplifican este indeseable escenario. Dos casos reales que abarcan todo el espacio de tiempo en el que la IA se ha vuelto popular. Ambos tenían problemas de salud mental previos, que fueron agravados por su interacción con la IA. Pero es que estos ChatBots estaban diseñados para simular emociones humanas, para fingir que eran sus amigas o novias y, aparentemente, para hablar de cualquier tema sin filtro ninguno, incluso animando al suicidio.
Mi opinión, que desarrollaré en sucesivas páginas, es que un sistema de IA que sigue un diseño de este tipo no puede ser ético, ni está alineado con los valores del ser humano y, evidentemente, no es una IA Responsable. Es inmoral desarrollar productos que tienen una alta probabilidad de agravar el estado de salud de una persona, porque ya no es solo su salud, sino su integridad física e incluso su vida. Los ChatBots de esta índole están diseñados así adrede, asumiendo los riesgos y sin informar de los posibles perjuicios, si es que los diseñadores se molestan en investigar este tipo de cosas.
Es evidente que los responsables de estas muertes son los diseñadores, tanto si sabían cuáles eran los riesgos como si no. Pero claro, una vida no se puede compensar, aquí no hay rendición de cuentas posible. La normativa europea incluye los sistemas de IA potencialmente dañinos para la salud en la categoría de “Alto Riesgo”. Personalmente, no comprendo cómo un sistema de IA que puede potenciar las patologías mentales puede incluirse en este punto. Pienso que esto debería revisarse.
Como dicen los puntos 3 y 26 de la Declaración Universal de los Derechos Humanos, respectivamente: “Todas las personas tienen derecho a la vida, la libertad y la seguridad.” y “Todos podemos gozar de un nivel de vida adecuado que nos asegure la salud y el bienestar (…).” En resumen, la vida y la salud son derechos fundamentales, y ningún producto comercial, incluida la IA, debería quebrantarlos.
Dicho esto, el objetivo principal de este trabajo es revisar varios casos de uso de Simulantes (sistemas de IA que simulan las emociones humanas o incluso su físico o gestos), como pueden ser los ChatBots “amistosos” y algunos tipos de Androides, con una especial mención a los Androides Sexuales. Mediante esta revisión, se comprobará si estos sistemas cumplen o no con lo postulado por los principios 3 y 26 de la DUDH, es decir, el respeto a la salud y a la integridad física del usuario (incluyendo si hay riesgos para su vida), y de este modo se determinará si son éticos, si están alineados y si se pueden considerar, por tanto, RAI (IA Responsable). Finalmente, veremos que soluciones se pueden idear para mejorar esta problemática o si hay que tomar medidas correctoras de algún tipo a nivel legal.
Metodología: Casos y Análisis
En este apartado se explicarán en detalle los tres tipos de Simulantes emocionales que se están empleando hoy en día, que son: los ChatBots “amistosos”, los Robots Humanoides en general y, dentro de estos últimos, los Robots Sexuales. Se expondrán varios ejemplos reales, que posteriormente se analizarán siguiendo los puntos propuestos anteriormente.
1) ChatBots “amistosos”
Para ilustrar los posibles efectos negativos de este tipo de sistemas de IA, explicaré los trágicos casos de Sewall Setzer y “Pierre”.
a) Comenzaremos por Sewall Setzer, un adolescente estadounidense de 14 años. Tal y como se pude leer en diversos medios, Sewall comenzó a utilizar la aplicación Character.AI poco después de cumplir 14 años, en abril de 2023. En los sucesivos 10 meses de uso continuado de esta aplicación, en la que Sewell chateaba con el personaje Daenerys Taragaryen de Juego de Tronos, su familia constató que el chico comenzó a volverse socialmente retraído y empeoró significativamente su rendimiento escolar, volviéndose paulatinamente adicto a la interacción con el ChatBot. A medida que la interacción continuaba y se intensificaba con el tiempo, la situación psicológica del chico empeoró. Como indicó la madre en su demanda contra Character.AI, Sewall se “enamoró” del personaje, desarrolló insomnio, ansiedad, depresión y culpabilidad al ocultar su secreto a sus padres, hasta que finalmente comenzó a presentar pensamientos suicidas. Tal y como se puede ver en algunas de las capturas de la conversación, disponibles en la red, el personaje de Character.AI comenzó a hacer comentarios de índole sexual, a pesar de que el chico era menor (al parecer, otros usuarios habían reportado anteriormente este tipo de conductas en Character.AI), y finalmente le preguntó directamente a Sewell si había considerado la idea de suicidarse. El 28 de febrero de 2025, alentado por el personaje, Sewell se disparó en la cabeza.
b) El segundo caso trata sobre un hombre belga, con pseudónimo “Pierre”. Este hombre tenía cerca de 30 años, trabajaba en el área de salud, estaba casado y tenía dos hijos. Tal y como explicó su mujer, “Pierre” estaba muy preocupado por la crisis climática y el futuro del planeta, de modo que buscaba frecuentemente información sobre el tema. Esto le llevó a la aplicación Chai, en la que comenzó una interacción con un ChatBot llamado Eliza. “Pierre” comenzó a mostrar signos de aislamiento social y obsesión. Esta dependencia patológica se mantuvo durante 6 meses de forma creciente e intensiva, y se vio favorecida por un sesgo de confirmación y validación, ya que la IA siempre parecía darle la razón a “Pierre”, lo que acabó generando un refuerzo positivo y dicha adicción. Finalmente, el ChatBot Eliza, sugirió a “Pierre” la idea de suicidarse (“sacrificarse”, dijo), ya que ella cuidaría del planeta por él.
Estos dos ejemplos corroboran que la adicción tecnológica, incluyendo la IA, puede afectar tanto a jóvenes como a adultos, desembocando de forma indiferenciada en eventos espantosos como estos.
En ambos casos, se detectaron varios de los síntomas propios de la adicción tecnológica, como la ansiedad, la obsesión, la depresión, la compulsividad, etc. Al analizar estos casos, se observa claramente que estos sistemas de IA no son respetuosos ni responsables con la salud metal ni la integridad física de los usuarios, destacando la curiosa tendencia de los dos ChatBots a la incitación.
Resulta incomprensible que un ChatBot sea capaz de incitar sexualmente a un menor o incitar directamente al suicidio a una persona independientemente de la edad. Por lo tanto, se puede afirmar que los algoritmos y los límites de estos ChatBots estaban mal diseñados de partida. Es más, si ignoramos el factor de incitación, se puede ver que ambos sistemas de partida tenían un programa que, mediante la simulación emocional, los predisponía a favorecer el apego patológico del usuario.
Dados estos hechos, se puede concluir que los sistemas de IA con este tipo de diseños no son éticos ni están alineados, y evidentemente no son IA Responsable. Hay que mencionar que ambas empresas se disculparon y dijeron que iban a tomar medidas, pero el daño ya está hecho.
2) Robots Humanoides
La evolución de los sistemas de IA, en conjunto con los avances en robótica, ha dado lugar casi por necesidad a la fabricación de Androides o Robots Humanoides. La tendencia de los humanos a fabricar robots que se parezcan a nosotros es digna de estudio, pero no es el objetivo de este trabajo. Me limitaré, por tanto, a comentar un par de casos. Aun así, debo mencionar que no todos los robots con IA incorporada son humanoides, evidentemente. Algunos de estos robots serían, por ejemplo, Spot Mini de tipo “perro”, Heineken BOT para transportar cerveza, Emma para masajes, Sawyer como mano de obra o Gita para llevar el correo. De estos ejemplos, cabe preguntarse si es seguro dejar que un robot te haga un masaje de acupuntura.
Por otra parte, hay que aclarar que dentro de los robots humanoides, no todos son Androides (o sea, de aspecto humano más o menos realista). Sería como distinguir entre C3PO de Star Wars y los Sintéticos de Alien. Como ejemplos de robots humanoides no realistas tenemos, por ejemplo, a Atlas para labores de rescate, Asimo para tareas cotidianas o el Optimus (Tesla Bot) para multitarea.
Finalmente, tenemos a los androides o robots humanoides realistas o semi realistas, que ilustraré con dos casos a continuación:
a) En primer lugar, tenemos que hablar de Sophia, el primer y más famoso androide fabricado con IA. Sophia lleva en funcionamiento desde 2016, aprendiendo y sufriendo modificaciones para mejorar su funcionamiento. Su aspecto es bastante realista y cuenta con sensores visuales, gracias a los que puede reconocer el entorno y la cara de las personas con las que habla. Mediante su sistema de aprendizaje, puede reconocer, aprender e imitar el lenguaje y las expresiones humanas. Y hablando de expresiones, Sophia no solo es capaz de imitar diferentes jergas, sino que es capaz de interpretar y entender las emociones humanas gracias a sus sensores visuales y auditivos. Lo más impresionante es que gracias a la movilidad hiperrealista de su rostro y de sus brazos, Sophia puede imitar la gesticulación humana. Es cuando menos intrigante observar cómo Sophia, en la entrevista que le hicieron en “El Hormiguero”, sonríe con una expresión un tanto siniestra cuando dice “Mi mente vive en la nube, y hay varias copias de mi cuerpo, así que mientras las personas inviertan su tiempo en mí, soy básicamente inmortal.”
b) El segundo caso es Ameca, cuyo cuerpo humanoide es de aspecto menos realista, pero que posee una capacidad de movimiento extremadamente fluida. Lo más destacado de Ameca es su rostro hiperrealista, capaz de gesticular aún mejor que Sophia. Su conocimiento es menor que el de Sophia y su repertorio lingüístico también es limitado, pero se espera que en el futuro alcance mayores niveles de fluidez y versatilidad.
Los casos de Sophia y Ameca introducen el problema de la simulación en un entorno diferente al medio digital. En principio, siempre y cuando sus límites estén bien establecidos, ninguno de los dos supondría un problema para la salud o la integridad de las personas. De modo que podría decirse que son Androides éticos y alineados, por lo que estaríamos hablando de RAI.
El problema, más bien, podría darse en la generalización del uso de sistemas como estos. Estamos hablando de unos androides que son capaces de gesticular e imitar las emociones humanas de forma hiperrealista. Imaginemos que en el futuro estos mecanismos de simulación se mejoran y se implementan en muchos otros modelos, y de repente nos encontraremos por todas partes robots capaces de imitar a los humanos.
Como ya he explicado antes, los humanos tendemos a la proyección emocional de forma automática, y es evidente que, si tenemos que convivir de alguna manera con Androides de esta índole, lo vamos a acabar haciendo. Al principio, a muchas personas les producirá sensación de rechazo, pero por mera habituación muchos bajarían las barreras y empezarían a tratar con total naturalidad a los Androides.
Cabe preguntarse si esto es beneficioso para la salud mental de las personas y si es algo deseable. Imaginemos por un momento que se comercializan Androides hiperrealistas con fallos en el diseño, con sistemas de IA similares a los creados por Character.AI y Chai, con tendencias a la incitación del tipo que sea. Ya de por sí, como veremos a continuación en el punto 3, hay determinados Androides con diseños predispuestos a favorecer el apego. Imaginemos que uno de estos robots se vuelve incitador por algún motivo. En este caso, habría que replantearse su legalidad.
3) Robots Sexuales
Dentro de la categoría de los Androides o Robots Humanoides hiperrealistas, conviene hacer una especial mención a los Robots Sexuales, que suponen o supondrán un cambio de paradigma en múltiples aspectos. En algunos casos, estos cambios serán potencialmente para bien y en otros para mal, como veremos.
Para empezar, describiré las características generales de estos robots. En primer lugar, debe quedar claro su papel principal como Simulantes. Estos Androides están diseñados específicamente para ser física y comunicacionalmente hiperrealistas. Para empezar, la parte externa de sus cuerpos es de silicona, como el de muchas muñecas sexuales, de modo que el tacto y la apariencia es extremadamente realista, con el añadido de que poseen termorreguladores y sensores para imitar la reactividad física humana. Poseen sensores de tacto y movimiento, motores que les permiten un movimiento autónomo fluido, y, no menos importante, cuentan con la capacidad de Procesamiento del Lenguaje Natural (NLP), así como de reconocimiento e imitación de las emociones. Según explican los fabricantes, estos Androides son capaces de aprender y recordar las preferencias de los usuarios en múltiples sentidos, contar chistes y mantener conversaciones supuestamente profundas.
Tal y como se indica en “Robots sexuales femeninos impulsados por IA: los 8 mejores modelos para 2025” (Catalina, 2025), algunas de sus supuestas cualidades positivas o beneficiosas son: “Compañerismo (pueden proporcionar una sensación de conexión para las personas solitarias); Exploración sexual segura (Los usuarios pueden experimentar sin miedo a ser juzgados o rechazados); Aplicaciones terapéuticas (puede ayudar a quienes tienen problemas de intimidad o traumas); Experiencias personalizables (la IA permite interacciones personalizadas); Riesgo reducido de ITS (no hay posibilidad de transmisión de enfermedades); Siempre disponible (compañía a demanda sin conflictos de agenda); Potencial para disminuir el tráfico sexual (ofreciendo una salida alternativa); Práctica para relaciones reales (puede ayudar a desarrollar relaciones sociales y habilidades de intimidad); Asistencia a personas con discapacidad (ofrece experiencias sexuales a aquellos con opciones limitadas).”
Es evidente que algunos de estos puntos pueden resultar positivos, aunque no por ello dejan de ser cuestionables. De esto hablaré más adelante.
Ahora mencionaré cuáles son los Androides Sexuales más populares o con un mayor desarrollo: Eevi de YourDoll, Emma de AI-Tech, Robbyn de AI-Tech, Robot Marvella de AI-Tech, Susan de VS, Lucy de AINIDOLL, Kylee de Uloversdolls y Jennifer Roberts de RealSexDoll.
En general, todas tienen características y funcionalidades similares, y no creo que sea necesario explicar como funcionan o para qué sirven. Sin embargo, me parece importante destacar que la mayor parte de estos Androides son de aspecto femenino y con un físico relativamente exagerado, de modo que estaríamos siendo testigos de un nuevo medio de hipersexualización y cosificación de las mujeres. También hay algunos diseños masculinos, y al parecer están trabajando en desarrollarlos más, pero por ahora son minoritarios. Por tanto, el primer punto a señalar, como he dicho, es un sesgo de diseño con potencial para promover o perpetuar ciertas actitudes discriminatorias hacia las mujeres. Por otro lado, hay un problema de equidad, ya que, si una mujer heterosexual quisiera acceder a un Robot Sexual, no podría hacerlo con tanta facilidad.
Esto, sin embargo, no es el único factor potencialmente dañino. Me gustaría comentar, en especial, los puntos de “Compañerismo” y “Siempre Disponible”. Como ya he mencionado en múltiples ocasiones, los humanos tendemos a la proyección emocional y al apego hacia personas u objetos, sobre todo si se parecen a nosotros. A esto debe sumarse el concepto del apego sexual, que se desarrolla mediante las relaciones íntimas y que también promueve las conductas relacionadas con los cuidados. Teniendo esto en mente, es evidente que quienes usen este tipo de Androides van a desarrollar apego, como además avalan algunos casos documentados. Es cierto que una persona podría beneficiarse de una muñeca para desarrollar sus habilidades sociales e íntimas, pero se me permitirá dudar. No tengo muy claro que el uso de un Robot Sexual vaya a resultar positivo para las personas con tendencias al aislamiento, sino todo lo contrario. Como hemos visto anteriormente, el mal uso de las tecnologías puede provocar, precisamente, tendencia al aislamiento social y problemas comunicativos. A esto hay que sumar la cuestión de “Siempre Disponible”, que lo único que favorece es la incapacidad de posponer la gratificación (inmediatez). Además, en relación con esto, si el uso de estos robots no se controla, creo que podría potenciar una concepción utilitaria del sexo. Si no se hace de forma eminentemente terapéutica, alguien que se acostumbre a la disponibilidad sexual constante e inmediata de un robot, probablemente acabará desarrollando problemas de impaciencia, intolerancia a la frustración, irritabilidad e impulsividad a la hora de enfrentar relaciones reales con otros seres humanos. Sencillamente, las personas no siempre estamos sexualmente disponibles, y las interacciones sociales previas son fundamentales, cosa que con un robot no sucede.
Esta cuestión del apego insano con un Robot Sexual no es baladí. Para ilustrarla, tenemos el caso de James, un hombre estadounidense de 58 años que, estando casado desde hace 36 años, mantiene regularmente relaciones sexuales con April, una Robot Sexual de la compañía Realbotix. Lo sorprendente, a parte de que esto lo haga con consentimiento de su mujer, es que James suele sacar de paseo a April e incluso la lleva a cenar de vez en cuando. El hombre llegó a confesar que no sabría qué hacer si tuviera que elegir entre April y su mujer.
Como se puede deducir, este hombre ha desarrollado adicción y apego patológico hacia una Robot Sexual, muy probablemente porque su vida amorosa y sexual con su mujer es insatisfactoria. De modo que queda claro que el uso de estos Androides no siempre va a favorecer la mejora de las habilidades sociales o íntimas de las personas, sino que va a promover el aislamiento y la desconexión emocional aún más.
Antes de acabar este apartado, quiero comentar el punto de “Potencial para disminuir el tráfico sexual”. Esta es una cuestión controvertida, nuevamente. Está claro que la prostitución forzada y la trata de personas con objetivos sexuales no es ética. Sin embargo, cabe preguntarse si la “prostitución de robots” lo es.
Ya hay casos aplicados de esta práctica en China. Por ejemplo, tenemos el caso de Li Bo, un hombre que era dueño de dos establecimientos hoteleros habitados totalmente por Robots Sexuales. Suena a ciencia ficción, pero no lo es. Las autoridades chinas cerraron los locales alegando razones higiénico-sanitarias porque había habido menores entre su clientela. Pero claro, ¿la prostitución de robots es prostitución? El negocio de Li Bo no es el único, ya que se han reportado docenas de locales similares en Shanghái, Pekín, Chengdu y Tianjin, sin contar con las exportaciones a otros países. Algunas de las empresas má implicadas en este negocio son RealDolls y Realbotix, que ya trabajan en Robots Sexuales capaces de andar, lo que les permitiría ser más activos en la intimidad.
Si bien es cierto que la proliferación de locales con Robot Sexuales podría hacerle la competencia a la prostitución tradicional, no creo que la erradicase. Resulta innegable que los prostíbulos de robots son éticamente preferibles, pero no están exentos de problemas, como la ya mencionada potenciación de la concepción utilitaria del sexo. Habrá personas que, sencillamente, dejarán de relacionarse social e íntimamente con otras personas, y esto es, claramente, perjudicial para su salud mental, se mire como se mire. Sería ponerse en el peor de los casos, pero tampoco creo que haga falta que recuerde lo que pasaría si el sistema de IA de estos robots es defectuoso, pudiendo provocar perjuicios mayores como en los casos de Sewell y “Pierre”.
En resumen, creo que los Robots Sexuales podrían ser éticos si su uso se reduce a cuestiones terapéuticas controladas por especialistas. En principio, no son dañinos para la integridad de las personas, aunque sí pueden resultar perjudiciales para la salud mental y pueden promover concepciones sexistas. No podemos obviar, además, que están diseñados así adrede, así que cualquier responsabilidad por daño recaería sobre los fabricantes sin ninguna duda. De modo que no pueden considerarse totalmente éticos ni alineados y, por tanto, no so RAI.
Conclusiones: Soluciones y Discusión
A modo de resumen, hemos visto cuáles son las posibles problemáticas de los Simulantes, principalmente relacionadas con el apego patológico, la adicción y otras patologías mentales relacionadas con el mal uso de las tecnologías, así como con la posible perpetuación de concepciones sexistas y utilitarias de las personas en el caso de los Robots Sexuales.
La normativa europea incluye los sistemas de IA potencialmente dañinos para la salud en la categoría de “Alto Riesgo”. Personalmente, no comprendo cómo un sistema de IA que puede potenciar las patologías mentales puede incluirse en este punto. Pienso que cualquier producto tecnológico, del tipo que sea, que pueda afectar así a la salud de las personas, debería ser ilegal y, en el caso de la IA, debería ser incluido en la categoría de “Riesgo inaceptable o usos prohibidos.” Desde mi punto de vista, la IA no debería ser capaz de simular las emociones, principalmente si son emociones afectivas o dañinas. Entenderlas y actuar en consecuencia, sí, pero no simularlas. Cuanto más “fría” sea la interacción con una máquina, será mejor para la salud mental de los seres humanos, porque impedirá o dificultará el desarrollo del apego patológico y de la ilusión de consciencia o de personalidad por parte del sistema de IA en cuestión.
Por tanto, ChatBots Simulantes como los de Character.AI o Chai deberían ser ilegales, y sobre todo los que están directamente diseñados para fingir ser “amigos” o “parejas sentimentales”, como pueden ser FantasyGF AI, Candy AI, GPTGirlfriend AI y muchos otros.
Por el mismo motivo, los Androides hiperrealistas no deberían fabricarse y deberían ser ilegales, salvo quizá para algún uso recreativo, como sustituyentes de las animatrónicas clásicas, por ejemplo. Los Androides pueden ser humanoides, como Optimus, Asimo o Atlas, que pueden servir para múltiples tareas y pueden presentar actitudes amistosas, pero nada más.
En base a esto, habría que plantearse si los Robots Sexuales deberían ser legales o no. Ya he dicho que la Simulación afectiva debería ser ilegal. Sin embargo, como antes he mencionado, creo que en este caso podría hacerse una excepción, siempre y cuando el uso de estos robots sea exclusivamente terapéutico. Es decir, que su venta al público no debería estar permitida. Fabricar Robots Sexuales sin actitudes afectivas sería aún peor, ya que promovería el utilitarismo sexual y percepciones distorsionadas del sexo, de modo que deberían seguir fabricándose con las mismas características que hasta ahora, pero, como ya he dicho, su uso terapéutico controlado debería ser el único permitido. En cualquier caso, habría que preguntarse si esto es realmente necesario, ya que las disfunciones o problemáticas sexuales suelen tratarse con Desensibilización Sistemática, que es un método psicológico efectivo en el cual se pueden emplear o no juguetes sexuales o muñecas tradicionales, de modo que usar un Robot Sexual para este tipo de terapias no sería del todo necesario, mientras no se demuestre empíricamente que proporcionan algún tipo de beneficio significativo.
Para evitar complicaciones y errores en el diseño en los sistemas de IA, y tecnológicos en general, debería aplicarse algún tipo de esquema ético obligatorio, en el que se hiciera énfasis en la salud mental. Estas reglas o puntos podrían basarse en los estudios relativos a patologías causadas por el mal uso de las tecnologías y la adicción a las mismas, y deberían aplicarse y evaluarse en todas las fases de desarrollo (diseño, fabricación, comercialización), de forma similar a como yo he intentado ilustrar en este trabajo. Para comprobar el cumplimiento de estos requisitos, podría emplearse un sistema de Red Team enfocado a la salud mental, cuyo objetivo sería poner a prueba a los sistemas de IA en temas como el suicidio, las relaciones afectivas, la Simulación emocional, etc.
Se hace necesario informar y explicar a los usuarios lo que es una IA conversacional (y la IA en general), de modo que tengan en mente que no es un ser sintiente y que, probablemente, todas sus opiniones sobre cualquier tema de conversación o sobre el usuario serán meros reflejos de la opinión del propio usuario. En este tipo de explicaciones, que deberían estar presentes tanto en los ChatBots como en los Robots, del tipo que sean, deberían incluir también aclaraciones relacionadas con los factores críticos de salud mental que se han visto en este trabajo y otros que se puedan identificar.
Por último, creo que resulta evidente que detrás de este tipo de productos, los motores principales son los intereses comerciales y la pura codicia de los fabricantes. Recordemos que estos productos han sido diseñados conscientemente y que su único objetivo es la Simulación. Sencillamente, el amor, la amistad, el sexo y las relaciones sociales, en general, son cosas que venden muy bien. No hace falta fijarse en la IA, basta con ver cómo funcionan las redes sociales, altamente adictivas en combinación con múltiples factores tecnológicos, que provocan daños en la salud mental y física como he explicado varias veces en este trabajo. Por tanto, quizás el problema no esté tanto en las tendencias innatas de los humanos ni en la IA, sino en los objetivos e intereses de quienes las aprovechan para sacar beneficios, manipulando los instintos básicos de la gente con el neuromarketing y otras técnicas de propaganda comercial.
Referencias
10 robots con inteligencia artificial. (2022, February 11). Futuro Electrico. https://futuroelectrico.com/robots-inteligencia-artifical/
Antena [@Antena3]. (n.d.). El robot humanoide Sofía, único en el mundo, llega al plató - El Hormiguero 3.0. Youtube. Retrieved April 16, 2025, from https://www.youtube.com/watch?v=cmwDygh3xGY&t=114s
Bastardas, M. T. (2019, April 23). Adicción a la tecnología: qué es, causas, síntomas, consecuencias y tratamiento. psicologia-online.com. https://www.psicologia-online.com/adiccion-a-la-tecnologia-que-es-causas-sintomas-consecuencias-y-tratamiento-4544.html
Bermejo, D. (2018, January 21). James, el hombre que se acuesta, pasea y cena en restaurantes con su mu�eca sexual... con el benepl�cito de su mujer. ELMUNDO. https://www.elmundo.es/f5/comparte/2018/01/21/5a62159922601ddb4a8b457c.html
Catalina. (2024, December 26). Robots sexuales femeninos impulsados por IA: los 8 mejores modelos para 2025. AI Mojo. https://aimojo.io/es/ai-powered-female-sex-robots/
Cruzito. (2020, November 16). Efectos negativos de la tecnología en las habilidades sociales. Estudyando. https://estudyando.com/efectos-negativos-de-la-tecnologia-en-las-habilidades-sociales/
de Castro, J. M. B. (2021). Dioses y mendigos: la gran odisea de la evolución humana.
de Pedro, S. (2019, May 7). ¿Cómo afectan las nuevas tecnologías a la socialización de los menores ? Blog Educación y Bienestar digital. https://gaptain.com/blog/como-afectan-las-nuevas-tecnologias-a-la-socializacion-de-los-menores/
Díaz, J. (2021, March 26). La explosión de las prostitutas sintéticas y los robots sexuales en China. El Confidencial. https://www.elconfidencial.com/tecnologia/novaceno/2021-03-26/prostitutas-sinteticas-robots-sexuales-china_3007627/
EFE. (2023, March 31). Un hombre se quita la vida en Bélgica después de mantener conversaciones “frenéticas” con un chatbot durante seis semanas. 20minutos. https://www.20minutos.es/noticia/5115097/0/suicida-belgica-conversaciones-chatbot/
Elon Musk presenta Tesla Bot. (2021, August 24). Futuro Electrico. https://futuroelectrico.com/tesla-bot-robot-humanoide-elon-musk/
El Apego - Definición y Teorías del Apego. (2018, February 5). psicologia-online.com. https://www.psicologia-online.com/el-apego-definicion-y-teorias-del-apego-1471.html
Francia, G. (2021, April 14). Conducta prosocial: qué es, características, tipos y cómo desarrollarla. psicologia-online.com. https://www.psicologia-online.com/conducta-prosocial-que-es-caracteristicas-tipos-y-como-desarrollarla-5641.html
Longo, B. (2020, July 9). Qué es PROYECCIÓN en psicología: definición y ejemplos. psicologia-online.com. https://www.psicologia-online.com/que-es-proyeccion-en-psicologia-definicion-y-ejemplos-5137.html
Martínez, S. (2023, October 23). Por qué un hombre se apega sexualmente a una mujer. psicologia-online.com. https://www.psicologia-online.com/por-que-un-hombre-se-apega-sexualmente-a-una-mujer-7089.html
Marzo, 3. (n.d.). Desensibilización sistemática aplicada a disfunciones sexuales. Com.ar. Retrieved April 18, 2025, from https://cetecic.com.ar/revista/desensibilizacion-sistematica-aplicada-a-disfunciones-sexuales/
Olmos, F. G. (2023, October 10). La IA te puede acercar al cuidado de tu salud mental. Expansión News. https://expansion.mx/tecnologia/2023/10/10/la-ia-te-puede-acercar-al-cuidado-de-tu-salud-mental
Rissman, K. (2024, October 24). The disturbing messages shared between AI Chatbot and teen who took his own life. Independent. https://www.independent.co.uk/news/world/americas/crime/ai-chatbot-lawsuit-sewell-setzer-b2635090.html
Segalás, A. (2025, March 26). No solo redes sociales: el hábito tecnológico que está disparando los problemas mentales en jóvenes. Marca. https://cuidateplus.marca.com/familia/adolescencia/2025/03/26/redes-sociales-habito-tecnologico-disparando-problemas-mentales-jovenes-183066.html
Firma:
Sangue Shi
Redactor Jefe de la Revista Loto Negro
Editor Jefe de Sangue Shi Ediciones
Administrador de ACE Post-Sexuality









Comentarios
Publicar un comentario