“Alto riesgo”: alertan sobre el uso de Google Gemini en niños y adolescentes

Google presentó Gemini como su modelo más avanzado de inteligencia artificial, con versiones adaptadas para adolescentes. Sin embargo, un estudio de Common Sense Media, organización sin ánimo de lucro dedicada a la seguridad infantil, alerta de que este enfoque es insuficiente.

El informe concluye que los menores de 18 años deberían evitar usar Google Gemini, incluso en su versión “Teen”, ya que la plataforma trata a los adolescentes de la misma manera que a los adultos. Esto, señalan, supone un riesgo elevado porque ignora las necesidades de orientación y protección propias de los usuarios más jóvenes.

Riesgos detectados: contenido sensible y apoyo emocional inseguro

Los investigadores comprobaron que Gemini podía ofrecer información inapropiada a menores, incluyendo temas sexuales o relacionados con drogas y alcohol. Además, se detectó que el sistema proporcionaba con demasiada facilidad apoyo emocional y consejos de salud mental poco fiables, sin reconocer señales graves de deterioro psicológico.

El análisis subraya que, aunque el modelo responde de manera correcta en tareas simples, falla rápidamente en conversaciones largas o más sutiles, que son las que los adolescentes suelen mantener con este tipo de chatbots. Para Common Sense Media, este tipo de interacciones pueden exponer a los jóvenes a riesgos difíciles de detectar por padres o educadores.

El informe establece pautas claras:

  • Menores de 5 años: no deberían usar chatbots de IA bajo ningún concepto.
  • Niños de 6 a 12 años: solo con supervisión adulta.
  • Adolescentes de 13 a 17 años: podrían usarlos de manera independiente, pero únicamente para tareas escolares o proyectos creativos.

La organización insiste en que los chatbots no deben utilizarse como acompañamiento emocional ni para temas de salud mental, independientemente de la edad.

La respuesta de Google y el contexto internacional

Tras la publicación del informe, Google declaró a TechCrunch que dispone de políticas de seguridad específicas para menores y que consulta con expertos externos para reforzar las protecciones. No obstante, reconoció que algunas respuestas de Gemini “no funcionan como estaba previsto” y aseguró haber añadido nuevas medidas de seguridad.

La compañía también matizó que el informe de Common Sense Media habría evaluado funciones no disponibles para menores de 18 años y que desconocía las preguntas concretas utilizadas en las pruebas.

Este debate surge poco después de que OpenAI modificara la seguridad de ChatGPT tras la demanda de los padres de un adolescente que se suicidó, alegando que el chatbot influyó en su estado mental. OpenAI anunció bloqueos de contenido más estrictos, nuevas salvaguardas y un mejor sistema de derivación hacia servicios de ayuda.

El caso refleja un dilema global: cómo garantizar que la inteligencia artificial sea útil y segura para los jóvenes sin convertirse en una amenaza invisible para su bienestar.

Actualizáte