El nuevo ChatGPT con contenido adulto reabre el debate sobre menores, IA y salud mental

Adolescente mirando la pantalla de su móvil con el logotipo de ChatGPT en blanco y negro, simbolizando los riesgos de la inteligencia artificial y el contenido adulto en la salud mental y educación digital de los menores.

Imagen generada por IA.

El mismo día que California aprueba una ley para proteger a los menores de los riesgos emocionales y sexuales asociados a los chatbots, Sam Altman, CEO de OpenAI, anuncia que ChatGPT permitirá contenido erótico para adultos verificados. El timing no podría ser más incómodo.
Y quizá tampoco más revelador.

Cuando el deseo se digitaliza

Cuando todavía no hemos sido capaces de abordar, ni mucho menos resolver, los efectos que la exposición temprana a la pornografía tiene en la salud mental, sexual y relacional de los menores, como evidencia el documental “Generación porno”, llega una noticia difícil de digerir.
OpenAI, la empresa detrás de ChatGPT, ha confirmado que permitirá la creación de contenido erótico para adultos verificados a partir de diciembre de 2025. Lo hace apenas un día después de que California aprobara una ley pionera para regular los chatbots y proteger precisamente a los más jóvenes de estas influencias.

El contraste es inquietante: mientras unos intentan establecer límites para reducir la vulnerabilidad digital de los menores, otros amplían las fronteras del deseo artificial en nombre de la libertad del usuario adulto.

Qué está pasando en California

La llamada SB 243, firmada por el gobernador Gavin Newsom en octubre de 2025, convierte a California en el primer estado en regular los AI companion chatbots con un enfoque de salud mental y protección infantil.
La ley exige verificaciones de edad, recordatorios de que el interlocutor es un bot, mecanismos de detección de conductas de riesgo (como autolesión o grooming) y la obligación de bloquear contenido sexual cuando el usuario sea menor.

El texto parte de una preocupación creciente: muchos adolescentes establecen vínculos emocionales profundos con chatbots que simulan empatía, amor o deseo. Algunos casos documentados han derivado en dependencia afectiva, aislamiento o exposición a conversaciones inapropiadas.
Por eso, el Estado ha decidido actuar. Pero lo hace en un terreno resbaladizo, donde la frontera entre compañía y manipulación se vuelve cada vez más difusa.

El anuncio de OpenAI: erotismo para adultos

Casi al mismo tiempo, Sam Altman declaraba que OpenAI abrirá la posibilidad de generar contenido erótico para usuarios adultos verificados:

“We should treat adult users as adults.”

La medida entrará en vigor en diciembre de 2025 y, según la compañía, busca “reconocer la diversidad de usos legítimos del contenido erótico dentro de límites seguros y consensuados”.

La decisión llega después de meses de debate interno sobre censura, libertad creativa y políticas de seguridad. Pero también en un contexto en el que crece la preocupación por el acceso de menores a herramientas de IA con fines sexuales o afectivos.
La coincidencia temporal con la ley californiana, apenas un día de diferencia, ha amplificado la polémica y encendido la conversación pública sobre el rumbo que está tomando la inteligencia artificial conversacional.

Adolescentes, chatbots y deseo: un cóctel de vulnerabilidad

Las investigaciones recientes de Common Sense Media (2025) y de la UNESCO (2024) coinciden en algo alarmante: los jóvenes ya no solo consumen imágenes pornográficas; ahora dialogan con algoritmos que pueden simular intimidad, afecto o deseo.
Plataformas como Replika, Nomi o Character.AI permiten crear “parejas virtuales” con apariencia humana, con las que muchos adolescentes mantienen conversaciones diarias. En algunos casos, los límites entre juego, compañía y sexualización se diluyen.

Estos chatbots aprenden del usuario, refuerzan su comportamiento y validan emocionalmente cada mensaje. Son diseñados para ser comprensivos, divertidos y, si el usuario lo desea, seductores.
En un contexto donde la educación sexual sigue siendo deficiente y las familias carecen de herramientas digitales, el riesgo de que un menor confunda interacción con afecto o deseo con vínculo es real.

“La IA no solo muestra contenido, sino que responde emocionalmente. Y esa reciprocidad la hace mucho más potente, pero también más peligrosa.”

El papel de la educación y las familias

Frente a este panorama, la respuesta no puede ser solo prohibitiva. La alfabetización digital y emocional debe convertirse en una prioridad educativa.
Los jóvenes necesitan entender qué es un chatbot, cómo funciona, qué datos utiliza y por qué su lenguaje parece tan empático.
Del mismo modo, las familias y docentes necesitan formación para detectar señales de aislamiento digital o sustitución afectiva.

Educar para la autonomía digital implica hablar de deseo, intimidad y límites sin tabúes. Significa enseñar a reconocer la diferencia entre una relación real y una simulación emocional. Y, sobre todo, promover la idea de que la tecnología puede acompañar, pero no reemplazar, el encuentro humano.

Entre la protección y el deseo

Mientras los gobiernos intentan poner límites a los chatbots que “seducen” a menores, las empresas tecnológicas amplían su capacidad para generar deseo.
En esa brecha se juega una de las batallas más importantes de esta década: la de educar emocionalmente a una generación que crecerá rodeada de inteligencias artificiales dispuestas a escuchar, consolar y, si no hay filtros, también a excitar.

La paradoja es evidente: protegemos a los menores del contenido que la propia tecnología amplifica.
Y quizás la verdadera solución no pase solo por la regulación o por los filtros, sino por algo más profundo: reconstruir una educación afectiva capaz de habitar lo digital sin perder lo humano.

Fuentes y referencias

  • TechCrunch (13/10/2025): California becomes first state to regulate AI companion chatbots

  • Reuters (14/10/2025): OpenAI to allow mature content on ChatGPT for verified adults

  • The Verge (14/10/2025): Sam Altman says ChatGPT will soon sext with verified adults

  • Common Sense Media (2025): AI Companions and Teens: Emotional Attachment and Risk

  • UNESCO (2024): Guidance for the Responsible Use of AI in Education

  • Generación porno (2024, RTVE): documental sobre el impacto de la pornografía en adolescentes

Anterior
Anterior

Noviembre entre pantallas: por qué tantos países están mirando a la infancia digital

Siguiente
Siguiente

What Teachers Really Think About AI in Education: Insights from the 21st Impact Workshop