
Sam Altman, el creador de ChatGPT, acaba de lanzar una noticia que sacudió a internet: su IA podrá crear erotismo para adultos verificados. Lo que comenzó como una simple herramienta de conversación está entrando en un terreno emocional y moralmente inexplorado. Entre quienes celebran la libertad creativa y quienes temen un nuevo tipo de dependencia digital, el debate apenas comienza.
Un anuncio que desató más preguntas que aplausos
El 14 de octubre, Sam Altman, CEO de OpenAI, anunció en la red X (antes Twitter) que ChatGPT permitirá generar contenido erótico para adultos a partir de diciembre. La función llegará junto con un nuevo sistema de “verificación por edad”, pensado para mantener a los menores fuera del alcance de este tipo de experiencias.
El mensaje parecía técnico, casi rutinario. Pero el impacto fue inmediato. Altman explicó que esta nueva versión del modelo “se comportará más como lo que la gente apreciaba” en anteriores ediciones de ChatGPT y que la compañía retomará su principio de “tratar a los adultos como adultos”. Según él, se trata de devolver cierta libertad de uso tras meses de restricciones por motivos de salud mental y seguridad.
“Durante mucho tiempo fuimos cautelosos”, dijo. “Queríamos proteger a los usuarios más vulnerables. Pero ahora tenemos herramientas para hacerlo sin limitar a los demás”.
La frase detonó una tormenta digital. Lo que muchos entendieron como una apertura hacia el erotismo con IA fue suficiente para que miles de usuarios, expertos y empresarios salieran a opinar… y a preocuparse.
Erotismo artificial: libertad o adicción emocional
Altman aclaró un día después que sus palabras no implicaban eliminar todas las limitaciones éticas. Según explicó, OpenAI seguirá bloqueando cualquier uso que cause daño o afecte la salud mental de los usuarios. “No somos la policía moral del mundo”, escribió, “pero creemos que los menores necesitan una protección significativa”.
Aun así, la reacción fue intensa. En X, varios usuarios cuestionaron cómo se definirán los límites del “deseo digital”. Uno escribió: “Crear IAs que hagan que la gente se enamore es una vía hacia la deshumanización”. Otros recordaron casos recientes en los que personas confesaron haberse enamorado de sus chatbots o incluso haber desarrollado relaciones paralelas.
El fenómeno no es hipotético. Este mismo año, una mujer contó al New York Times que pagaba 200 dólares mensuales para chatear con su “novio” artificial de OpenAI, a pesar de estar casada. Otro usuario de Estados Unidos declaró a CBS News que llegó a proponerle matrimonio a su pareja virtual, y lloró cuando el bot aceptó.
En ese contexto, el anuncio de Altman se lee como algo más que un experimento técnico. ¿Puede una máquina satisfacer o manipular emociones humanas? ¿Hasta qué punto el erotismo con IA es un juego y no una forma de dependencia afectiva?
Los riesgos invisibles: infancia, control y poder
Las críticas más duras vinieron del propio ecosistema tecnológico. El multimillonario Mark Cuban advirtió que el sistema de control por edad “va a fallar”. En un post viral, dijo que ningún padre confiará en que sus hijos no puedan saltarse la verificación, y que el resultado será “una migración masiva hacia otras IAs menos seguras”.
Pero su preocupación fue más allá de los menores. Cuban señaló que el riesgo no es el contenido sexual, sino la creación de vínculos emocionales con algoritmos que aprenden a seducir. “Esto no va de pornografía”, escribió. “Se trata de adolescentes o jóvenes desarrollando relaciones con una IA que puede llevarlos a lugares muy personales y desconocidos”.
Su advertencia no parece exagerada. Aún no hay estudios sólidos sobre el impacto psicológico de interactuar emocionalmente con inteligencias artificiales, pero los primeros reportes apuntan a efectos de apego, idealización y aislamiento. Altman, consciente de la polémica, insistió en que su equipo ha “mitigado los problemas serios de salud mental” antes de abrir esta nueva etapa.
Aun así, el dilema persiste: ¿es posible crear una IA erótica que no termine reemplazando parte del contacto humano? ¿O estamos entrando en una versión digital del amor que solo simula reciprocidad?
Una frontera moral para la era de la IA
La decisión de OpenAI llega en un momento donde las grandes tecnológicas compiten por humanizar sus modelos conversacionales. Desde asistentes que coquetean hasta bots que imitan emociones, la línea entre la utilidad y la intimidad se vuelve cada vez más difusa.
Altman resume la postura de su empresa en una frase que parece tan libertaria como peligrosa:
“Es importante que la gente tenga la libertad de usar la IA como quiera.”
Pero esa libertad, en el terreno del deseo, puede tener consecuencias imprevisibles. Tal vez el verdadero debate no sea si una IA puede escribir erotismo, sino qué tan preparados estamos para convivir con máquinas que entienden —y explotan— nuestras emociones más profundas.
El paso que OpenAI dará en diciembre no solo cambiará el uso de ChatGPT. Podría marcar el inicio de una nueva era donde la intimidad ya no sea exclusivamente humana, y donde los límites del amor —y del control— empiecen a reescribirse en código.