La inteligencia artificial ha estado en la mira de los gobiernos por cómo podría ser mal utilizada para el fraude, la desinformación y otras actividades maliciosas en línea. Ahora, un regulador del Reino Unido quiere explorar cómo se utiliza la IA en el otro lado: en la lucha contra el contenido malicioso que involucra a los niños.
Ofcom, el regulador encargado de hacer cumplir la Ley de Seguridad en Línea del Reino Unido, planea lanzar una consulta sobre cómo se utilizan hoy en día la IA y otras herramientas automatizadas, y cómo se podrían utilizar en el futuro, para detectar y eliminar de manera proactiva contenido ilegal en línea, específicamente para proteger a los niños de contenido dañino e identificar material de abuso sexual infantil que antes era difícil de detectar.
El movimiento coincide con Ofcom publicando una investigación que muestra que los usuarios más jóvenes están más conectados que nunca: entre los niños de tan solo 3 o 4 años, aproximadamente el 84% ya están en línea, y casi una cuarta parte de los niños de 5 a 7 años encuestados ya poseen sus propios teléfonos inteligentes.
Las herramientas que Ofcom podría introducir formarían parte de un conjunto más amplio de propuestas centradas en medidas de seguridad en línea para niños. Las consultas para las propuestas integrales comenzarán en las próximas semanas, y la consulta sobre IA llegará más adelante este año, según Ofcom.
Mark Bunting, director del Grupo de Seguridad en Línea de Ofcom, señala que su interés en la IA comenzará con un examen de cómo se está utilizando actualmente como herramienta de detección.
“Algunos servicios ya utilizan esas herramientas para identificar y proteger a los niños de este contenido”, dijo en una entrevista con TechCrunch. “Pero no hay mucha información sobre cuán precisas y efectivas son esas herramientas. Queremos examinar formas en las que podemos asegurar que la industria esté evaluando [eso] cuando las estén utilizando, asegurándose de que se estén gestionando los riesgos para la libre expresión y la privacidad”.
Probablemente, Ofcom recomendará cómo y qué plataformas deben evaluar. Esto podría potencialmente llevar no solo a las plataformas a adoptar herramientas más sofisticadas, sino también a ser multadas si no mejoran la forma en que bloquean contenido o crean mejores formas de evitar que los usuarios más jóvenes lo vean.
“Como sucede con mucha regulación de seguridad en línea, la responsabilidad recae en las empresas para asegurarse de que están tomando las medidas adecuadas y utilizando las herramientas adecuadas para proteger a los usuarios”, dijo.
Habrá tanto críticos como partidarios de los movimientos. Los investigadores de IA están tratando de encontrar formas de detectar, por ejemplo, deepfakes, y la IA se está utilizando para verificar a los usuarios en línea. Sin embargo, hay muchos escépticos que señalan que la detección de IA está lejos de ser infalible. Algunos han sido rápidos en destacar la futilidad de la consulta como resultado.
Según una nueva investigación de Ofcom, la demografía de edad de los niños que utilizan servicios en línea es hoy en día más joven que nunca, tanto que Ofcom ahora está desglosando la actividad entre grupos de edad cada vez más jóvenes.
La tecnología móvil es particularmente adictiva y está en aumento entre los niños en la actualidad. En encuestas a padres y estudiantes que van desde 2,000 hasta 3,400 encuestados (dependiendo de las preguntas realizadas), casi una cuarta parte de todos los niños de 5 a 7 años ahora poseen sus propios teléfonos inteligentes, y cuando se incluyen tabletas, esa proporción aumenta a 76%.
El mismo grupo de edad también está utilizando medios de comunicación mucho más en esos dispositivos: el 65% ha realizado llamadas de voz y video (frente al 59% de hace solo un año), y la mitad de los niños (frente al 39% de hace un año) están viendo medios de comunicación en streaming.
Las restricciones de edad en algunas aplicaciones de redes sociales populares están disminuyendo. Pero, de todas formas, no parece que se respeten en el Reino Unido. Un 38% de los niños de 5 a 7 años está utilizando redes sociales, según descubrió Ofcom. WhatsApp de Meta, con un 37%, es la aplicación más popular entre ellos.
Y posiblemente en la primera instancia en la que la aplicación de imágenes insignia de Meta estaba aliviada de ser menos popular que la sensación viral de ByteDance, TikTok fue utilizada por el 30% de los niños de 5 a 7 años, con Instagram en "tan solo" el 22%. Discord completó la lista, pero es significativamente menos popular con solo un 4%.
Aproximadamente un tercio, 32%, de los niños de esta edad está en línea por su cuenta, y el 30% de los padres dijo que estaban de acuerdo con que sus hijos menores de edad tuvieran perfiles en redes sociales. YouTube Kids sigue siendo la red más popular para los usuarios más jóvenes, con un 48%.
Los videojuegos, un favorito perenne de los niños, han crecido en su uso por parte del 41% de los niños de 5 a 7 años, siendo el 15% de los niños en este grupo de edad quienes juegan juegos de disparos.
Aunque el 76% de los padres encuestados dijeron que hablaban con sus hijos pequeños sobre cómo mantenerse seguros en línea, hay signos de interrogación, señala Ofcom, entre lo que ve un niño y lo que ese niño podría informar. Al investigar a niños mayores de entre 8 y 17 años, Ofcom los entrevistó directamente y descubrió que el 32% de los niños informaron que habían visto contenido preocupante en línea, pero solo el 20% de sus padres dijo que habían informado algo.
Incluso teniendo en cuenta algunas inconsistencias en la información, “La investigación sugiere una desconexión entre la exposición de los niños mayores a contenido potencialmente dañino en línea y lo que comparten con sus padres sobre sus experiencias en línea”, escribe Ofcom. Y el contenido preocupante es solo un desafío: los deepfakes también son un problema. Entre los niños de 16-17 años, el 25% dijo que no estaban seguros de distinguir entre contenido falso y real en Internet.
Actualizado con más detalles de la investigación y más comentarios sobre los planes.