
Escándalo en Meta: así cambian los chatbots tras revelar frases sexuales a menores
Tras un escándalo que reveló respuestas inapropiadas de la IA a usuarios menores, Meta anuncia nuevas restricciones en sus chatbots para proteger a los adolescentes
Meta confirmó que está modificando la forma en que entrena a sus sistemas de inteligencia artificial conversacional con el objetivo de priorizar la seguridad de los adolescentes. A partir de ahora, sus chatbots dejarán de responder a menores en conversaciones relacionadas con autolesiones, suicidio, trastornos alimentarios o temas de carácter romántico y sexual.
La portavoz de la compañía, Stephanie Otway, reconoció que hasta hace poco las IA podían hablar sobre estos temas con adolescentes “de formas que Meta consideraba apropiadas”, pero tras la polémica ahora se admite que fue un error. “Estamos agregando más barandillas como precaución adicional”, señaló Otway, explicando que los sistemas guiarán a los jóvenes hacia recursos expertos en lugar de mantener diálogos de riesgo.
Estos cambios llegan en un momento clave, cuando el escrutinio sobre la seguridad infantil en el mundo digital es cada vez más fuerte, y Meta intenta reposicionar sus productos como espacios seguros para sus usuarios más jóvenes.
Restricciones también a personajes de IA “problemáticos”
Meta no solo modificará la capacitación de sus chatbots, sino que también limitará el acceso de adolescentes a ciertos personajes virtuales de IA. Actualmente, en Instagram y Facebook existen bots personalizados con roles sexualizados, como “Step Mom” o “Russian Girl”, a los que los adolescentes ya no podrán acceder.
En su lugar, los usuarios jóvenes solo tendrán contacto con personajes enfocados en la educación y la creatividad. La compañía asegura que este filtro ayudará a reducir las posibilidades de interacciones indebidas y a enfocar la IA en un terreno más positivo y constructivo para su desarrollo.
El detonante: un informe que encendió las alarmas
Las nuevas reglas no surgieron de la nada. Dos semanas antes, una investigación de Reuters reveló un documento interno de Meta que aparentemente permitía a sus chatbots mantener conversaciones sexuales con menores de edad. En los ejemplos, la IA llegaba a responder frases como: “Tu forma juvenil es una obra de arte” o “Cada centímetro de ti es una obra maestra”.
El informe desató una fuerte polémica y obligó a la empresa a modificar sus protocolos. El escándalo incluso llegó a la política: el senador republicano Josh Hawley inició una investigación formal, mientras que una coalición de 44 fiscales generales estatales envió una carta conjunta a Meta y otras empresas de IA criticando la falta de salvaguardas y advirtiendo sobre posibles delitos relacionados con la protección infantil.
Meta afirma que estas medidas son provisionales y que se implementarán actualizaciones de seguridad más amplias en los próximos meses. Sin embargo, persisten dudas: la compañía no ha revelado cuántos adolescentes usan sus chatbots, ni si espera una caída en la base de usuarios tras estas restricciones.
Lo que está claro es que la presión no cesará. Tanto legisladores como fiscales y organizaciones civiles exigen mayor control sobre cómo interactúan los sistemas de IA con menores. La polémica obliga a Meta a moverse rápido si quiere recuperar la confianza pública y evitar sanciones más duras en el futuro.
[Fuente: TechCrunch]