Un conflicto surge entre actores de la IA generativa
La respuesta de Stability AI (y un poco de humor)
En el mundo de la inteligencia artificial generativa, se ha desatado una tormenta debido a acusaciones de Midjourney acerca de que miembros del equipo de Stability AI intentaron robar datos de manera inapropiada, lo que causó una importante perturbación del sistema. La medida de Midjourney de prohibir a todos los empleados de Stability AI utilizar su servicio ha creado tensiones en la industria de la IA generativa.
La situación se originó en el inicio del mes cuando dos cuentas asociadas con un empleado de la compañía fueron señaladas por realizar una actividad sospechosa similar a la de un botnet. Esta intentó recuperar masivamente datos de entrenamiento de modelos generativos, lo que llamó la atención de Midjourney.
La respuesta de Midjourney fue no solo excluir a los empleados de Stability AI sino también introducir una nueva política de seguridad. Cualquier persona asociada con una empresa que realice automatización agresiva o cause interrupciones en el servicio se les negará el acceso a Midjourney.
En cambio, Stability AI no tardó en responder. El CEO de la compañía, Emad Mostaque, expresó su sorpresa y su intención de llevar a cabo una investigación exhaustiva. Si se descubre que un empleado de su equipo estuvo involucrado, se tratará de una acción aislada y no de un ataque deliberado de denegación de servicio (DDoS).
Mostaque también dijo que Stability AI no necesitaba recurrir al scraping de datos de Midjourney, ya que su modelo, Stable Diffusion 3, supera a los demás en términos de rendimiento.
Este incidente pone en relieve las prácticas controvertidas de scraping de datos en la industria de la IA generativa. La ironía de la situación es que Midjourney y Stability AI ya han sido acusadas de explotar obras de creadores sin autorización para entrenar sus modelos de IA. Esta situación plantea importantes cuestiones éticas y comerciales en el rápido crecimiento del campo de la inteligencia artificial generativa, así como en los derechos de los creadores de contenido en la era digital.
Tenemos que admitir que esta situación resulta un poco cómica. Las dos empresas se han acusado mutuamente de prácticas poco éticas en el pasado, así que ¿quién sabe qué sucedió realmente en esta ocasión? Además, solo podemos imaginarnos a los empleados de Stability AI intentando robar datos y siendo descubiertos. Quizás deberían empezar a aprender a hacerlo mejor.
En conclusión, este conflicto entre actores de IA generativa muestra la necesidad de establecer una conversación ética sobre la seguridad y los datos que se utilizan para entrenar estas tecnologías. Como siempre, el humor puede ayudarnos a tomar perspectiva y entender la complejidad de estas entidades digitales que siguen desarrollándose en nuestro mundo moderno.