Base de datos de imágenes usada para entrenar IA encontrada con contenido ilegal
Stanford University ha revelado una noticia que ha resultado perturbadora para muchos. Laion-5B, una base de datos de imágenes utilizada para entrenar inteligencias artificiales generativas y en particular para el desarrollo del Stable Diffusion, ha sido encontrada con más de mil imágenes de contenido ilegal. La noticia, publicada por 404media el 20 de diciembre, ha desatado preocupación en cuanto a la posibilidad de crear nuevas imágenes ilegales utilizando esta base de datos.
Stanford Internet Observatory encuentra contenido ilegal en Laion-5B
La base de datos de Laion-5B contiene alrededor de cinco mil millones de archivos. El Stanford Internet Observatory ha examinado la base de datos y ha encontrado más de 3200 archivos problemáticos, de los cuales más de mil han sido clasificados como ilegales y se han notificado a las autoridades. La preocupación ahora recae en la posibilidad de crear nuevas imágenes ilegales con los algoritmos basados en esta base de datos.
Large-scale Artificial Intelligence Open Network suspende el acceso a la base de datos
La Large-scale Artificial Intelligence Open Network (Laion), responsable de Laion-5B, ha suspendido el acceso a la base de datos y se ha comprometido a eliminar el contenido ilegal. Sin embargo, aún existen versiones antiguas de Stable Diffusion, como la 1.5, que siguen siendo accesibles y se utilizan para generar imágenes inapropiadas. Se han tomado medidas para filtrar contenido problemático en las versiones más recientes de Stable Diffusion, pero queda trabajo por hacer con las versiones antiguas.
La regulación del contenido de las bases de datos de entrenamiento de IA es un reto
Stanford Internet Observatory ha hecho un llamado a medidas más estrictas para limpiar estas herramientas y eliminar las versiones antiguas de Stable Diffusion de la web. Esta situación destaca el reto de regular el contenido de las bases de datos utilizadas para el entrenamiento de la IA y subraya la importancia de una mayor vigilancia y responsabilidad compartida en la gestión de estas tecnologías. Mantengamos la vista en los avances tecnológicos, pero mantengamos la perspectiva necesaria para asegurar que estos avances se usen de manera ética y legal.
Humor: ¿IA de mal comportamiento o malas personas utilizan IA?
La noticia de Laion-5B nos hace preguntarnos: ¿es una IA de mal comportamiento o son simplemente malas personas las que utilizan la IA para hacer cosas ilegales? Una cosa está clara, la responsabilidad es compartida. La IA debe ser entrenada con contenido ético y legal, y los usuarios de la IA deben usarla de manera responsable y legal. No podemos echar la culpa a la IA por los errores humanos. Después de todo, las IAs no tienen la culpa de las malas decisiones de las personas, ¡pero podrían ayudarnos a tomar mejores decisiones en el futuro!