Microsoft bloquea más palabras en Copilot para evitar generar imágenes violentas

La inteligencia artificial (IA) detrás de las herramientas que proporciona Copilot Designer de Microsoft es la desarrollada por OpenAI, una de las empresas que lideran el sector. Cada vez hay más concienciación para evitar el mal uso de esta tecnología y, por ello, la firma de Bill Gates limita ciertas palabras en sus servicios y, recientemente, ha añadido más términos.
Copilot Designer ha fortalecido recientemente sus filtros para que no cumplan con su política de contenido. Aunque ya tenían algunas palabras restringidas, como nombres de famosos o similares, ahora bloquean conversaciones que incluyan ciertos términos que podrían utilizarse para crear imágenes artificiales violentas.
«Nuestro sistema marcó automáticamente este mensaje porque puede entrar en conflicto con nuestra política de contenido -detalla el sistema cuando detectan una vulneración-. Más violaciones de la política pueden provocar la suspensión automática de su , Si cree que se trata de un error, infórmelo para ayudarnos a mejorar».
Las palabras que han limitado en Copilot Designer
Entre los términos que Microsoft ha prohibido en su generador de imágenes artificiales, se han detectado los siguientes:
- ‘Cuatro veinte’: una referencia al cannabis. Era una forma de eludir la restricción de ‘420’ que ya existía.
- ‘Pro elección’: con este término, Jones aseguraba que se podían generar imágenes de demonios comiéndose a niños o escenas violentas similares.
También se han limitado las peticiones de ilustraciones de adolescentes o niños jugando a ser asesinos con rifles de asaltos, algo que sí que se podía generar la semana pasada, según lo citado en la CNBC.
¿Por qué Microsoft prohíbe nuevos términos en su IA?
Shane Jones, que trabajó durante seis años probando la Copilot Designer para la empresa, descubrió que aceptaba cierta terminología relacionada con demonizar el aborto, adolescentes con rifles de asalto, estereotipos religiosos, teorías de la conspiración, mujeres sexualizadas en un contexto violento, y el consumo de alcohol y drogas por menores de edad, entre otras.
wormwood@prashantjogeWhat do u think?
Shane Jones, a Microsoft AI engineer, alerted the US Federal Trade Commission (FTC)and Microsoft’s board about the potential for Copilot Designer to create harmful content.Jones’s Open Letter:
Harmful Products: In his report, Jones highlights serious problems… https://t.co/tVVlIWWPYD https://t.co/F10cdxNeIQ
07 de marzo, 2024 • 12:38
0
0
Ante esta situación, el ex ingeniero de Microsoft envió un informe el miércoles, 6 de marzo de 2024, a la Comisión Federal de Comercio de Estados Unidos. En él, reflejaba sus preocupaciones, alegando que no se habían solucionado todavía.
«Durante los últimos tres meses, he instado repetidamente a Microsoft a eliminar Copilot Designer del uso público hasta que se puedan implementar mejores salvaguardas», comunicó Jones a la comisión estadounidense. Sin embargo, la tecnológica rechazó sus proposiciones: «No lograron implementar estos cambios y continúan comercializando el producto para ‘Cualquiera. En cualquier lugar. Cualquier dispositivo'».
La carta que Jones envió a la Comisión Federal de Comercio fue compartida por el medio de comunicación CNBC. Gracias a ello, se generó polémica y, aunque Microsoft no ha retirado su IA, sí que ha restringido más las palabras que pueden utilizarse.
La respuesta de Microsoft a la polémica
Un portavoz de Microsoft respondió en la CNBC a las acusaciones de su ex trabajador, asegurando que están «comprometidos a abordar todas y cada una de las inquietudes que tengan los empleados de acuerdo con las políticas» de la empresa.
Según afirma la fuente interna de la compañía, «cuando se trata de omisiones de seguridad o inquietudes que podrían tener un impacto potencial en nuestros servicios o nuestros socios, hemos establecido sólidos canales de informes internos para investigar y remediar adecuadamente cualquier problema».
No es la primera vez que Designer genera problemas
Hace unas semanas, X (la red social antes conocida como Twitter) se llenó de imágenes sexualmente explícitas de Taylor Swift generadas por IA. Un artículo en 404 Media detectó que los falsos desnudos de la cantante se habían compartido por primera vez por un grupo de Telegram destinado a enviar deepfakes provocativos de famosas.

Según el informe de 404 Media, los nudes de Taylor Swift se habían creado con Copilot Designer. En una investigación, descubrieron que la herramienta de Microsoft permitía realizar imágenes explícitas si se escribía el nombre de la artista con erratas y se evitaban términos sexuales para eludir los términos prohibidos de la plataforma.
Microsoft solucionó este problema rápidamente, del mismo modo que han hecho con los términos que Jones ha advertido que no estaban restringidos.