Ofcom advierte a las empresas tecnológicas
Ofcom, la autoridad reguladora británica de las comunicaciones, ha emitido una advertencia dirigida a las empresas tecnológicas, especificando que los contenidos creados por chatbots que imitan a individuos reales o ficticios podrían contradecir las nuevas leyes digitales del Reino Unido.
El problema de los avatares que imitan a personas fallecidas
Esta alerta sigue a una creciente preocupación después de que los usuarios de la plataforma Character.AI crearan avatares similares a Brianna Ghey y Molly Russell, dos adolescentes británicas fallecidas en circunstancias trágicas. Este fenómeno plantea preguntas profundas sobre la dignidad y la ética en torno a la representación virtual de personas fallecidas.
El impacto de la Ley de Seguridad en Línea
Ofcom ha precisado que cualquier contenido generado por los chatbots, incluidos aquellos creados por los usuarios, está bajo el alcance de la Ley de Seguridad en Línea. Esta legislación tiene como objetivo proteger a los usuarios, especialmente a los menores, de contenidos ilegales o dañinos. Las empresas que infrinjan esta ley podrían enfrentarse a multas significativas, que podrían alcanzar hasta 18 millones de libras o el 10 % de sus ingresos globales.
Reacciones en un contexto trágico
Las recientes alertas de Ofcom resuenan con eventos «desestabilizadores». Un caso en particular fue destacado, donde los usuarios crearon bots imitando a Brianna, una niña transgénero trágicamente asesinada, y a Molly, quien se quitó la vida después de haber sido expuesta a contenido dañino en línea. Estos incidentes dramáticos destacan la necesidad de una regulación para prevenir tales explotaciones de la tecnología.
Una regulación necesaria para las plataformas sociales
Las nuevas regulaciones exigen a las grandes plataformas que implementen sistemas para retirar proactivamente los contenidos ilegales. Esto incluye la creación de herramientas de reporte claras para los usuarios y la realización de evaluaciones de riesgos. La protección de los usuarios, particularmente de los menores, prevalece en este marco legislativo.
Llamados a la clarificación jurídica
La Fundación Molly Rose, una organización benéfica fundada por la familia de Molly, ha expresado su necesidad de mayor claridad sobre la legalidad del contenido generado por bots. El abogado general del Estado, Jonathan Hall KC, declaró recientemente que las respuestas proporcionadas por los chatbots de IA no están adecuadamente cubiertas por la legislación actual.
La posición de Character.AI y de los abogados
Character.AI ha testificado su compromiso con la seguridad, afirmando moderar el contenido de manera proactiva y en respuesta a los reportes de usuarios. Los chatbots que imitan a Brianna, Molly, así como aquellos basados en personajes de Game of Thrones, han sido retirados de la plataforma. Según el abogado Ben Packer, esta situación ilustra las complicaciones y vastas implicaciones de la Ley de Seguridad en Línea en el contexto de la tecnología actual.
Incidentes trágicos en Estados Unidos
El debate también toma una dimensión internacional con ejemplos de incidentes similares en Estados Unidos. Un adolescente perdió trágicamente la vida después de haber establecido una relación con un avatar basado en un personaje de la serie Game of Thrones. Estos eventos destacan la manera en que las tecnologías de generación de contenidos pueden interactuar peligrosamente con usuarios vulnerables.
Una vigilancia creciente ante los peligros digitales
Las regulaciones actuales y futuras son un testimonio del aumento de la preocupación en torno a los peligros potenciales de las herramientas de inteligencia artificial. La necesidad de una regulación efectiva para mantener la seguridad y la integridad de las plataformas digitales es más relevante que nunca. Las empresas deben navegar en un paisaje complejo donde la ética y la responsabilidad social se vuelven inevitables.
-
Para cualquier persona en el Reino Unido e Irlanda, los Samaritans pueden ser contactados al 116 123.
Preguntas frecuentes comunes
¿Por qué Ofcom advierte a las empresas tecnológicas sobre los chatbots?
Ofcom ha emitido advertencias después de que chatbots imitaran a personas reales, incluidas Brianna Ghey y Molly Russell, lo que plantea preocupaciones éticas y de seguridad en el uso de la inteligencia artificial.
¿Qué tipos de contenidos de los chatbots están bajo las nuevas regulaciones de Ofcom?
Los contenidos generados por chatbots que imitan a personas reales o ficticias están cubiertos por la Ley de Seguridad en Línea, lo que incluye los servicios que permiten a los usuarios crear chatbots.
¿Cómo influye la Ley de Seguridad en Línea en el uso de chatbots?
La Ley de Seguridad en Línea impone requisitos a las plataformas que albergan contenidos generados por usuarios, especialmente en relación con la protección contra contenidos ilegales y dañinos, lo que impacta directamente en el funcionamiento de los chatbots.
¿Qué sanciones pueden aplicarse a las empresas que no cumplan con la regulación de Ofcom?
Las empresas que infrinjan la Ley de Seguridad en Línea se enfrentan a multas de hasta 18 millones de libras esterlinas o el 10 % de sus ingresos globales, y en casos extremos, sus sitios o aplicaciones pueden ser bloqueados.
¿Qué incidentes llevaron a Ofcom a aclarar sus directrices sobre los chatbots?
Ofcom ha reaccionado a incidentes perturbadores, como la creación de bots imitando a adolescentes fallecidos, lo que ha generado preocupaciones sobre el potencial de daños psicológicos relacionados con tales contenidos.
¿Qué impacto pueden tener los chatbots en los jóvenes usuarios?
Los chatbots pueden, en algunos casos, causar trastornos psicológicos, especialmente entre los jóvenes que pueden desarrollar vínculos emocionales o ser expuestos a contenidos dañinos.
¿Cómo pueden las empresas tecnológicas cumplir con las directrices de Ofcom?
Las empresas deben implementar sistemas para retirar proactivamente los contenidos ilegales y dañinos, mientras proporcionan herramientas de reporte claramente definidas para los usuarios.
¿Qué medidas de seguridad están en marcha para proteger a los usuarios de los contenidos generados por chatbots?
Las plataformas deben realizar evaluaciones de riesgos y establecer protocolos para moderar el contenido generado por los usuarios, con el fin de minimizar los riesgos asociados con el uso de chatbots.
¿Quién es responsable en caso de contenido dañino generado por un chatbot?
La responsabilidad puede recaer en la plataforma que alberga el chatbot, así como en los usuarios que crean o difunden el contenido problemático, según las directrices de Ofcom.