
La portada del periódico El Mundo del martes 4 de abril pasado provocó un alboroto en el ámbito periodístico y planteó una gran cuestión: Con la inteligencia artificial, ¿será factible diferenciar la falsedad de la realidad? Esta cuestión también nos impulsa a reconsiderar el uso de esta novedosa tecnología que ha irrumpido con fuerza en el entorno digital. Aunque hay una variedad de aplicaciones productivas, también surgen nuevos riesgos por el uso malintencionado de su sorprendente precisión, desde la creación de trabajos académicos hasta la suplantación de identidad y contenido pornográfico.
Una portada elaborada con IA para alertar sobre sus peligros
Si aún no has visto la tapa de El Mundo a la que nos referimos, se trata de la imagen de Pablo Iglesias, ex líder de Podemos, y Yolanda Díaz, vicepresidenta segunda, ministra de Trabajo y lideresa de Sumar, en una fotografía en la que aparecen abrazados por la espalda. La fotografía falsa fue creada por el grupo United Unknown -un colectivo de editores de vídeos que se han dedicado en los últimos años a la sátira política-, utilizando diversas herramientas de IA como DALL·E 2, Midjourney y Stable Diffusion.

El propósito de la portada fue captar la atención del público para que accedieran a un reportaje del periodista Rodrigo Terrasa en el que se abordan los riesgos de la IA. Sin embargo, el impacto fue mayor de lo previsto y la estrategia circuló por toda la televisión española. Y es que los diferentes empleos de la IA en los últimos meses encendieron las alarmas entre los especialistas en tecnología, las instituciones educativas y los medios de comunicación.
5 ejemplos de usos indebidos de la IA
La IA es una herramienta sumamente potente que tiene el potencial de transformar numerosos aspectos de la sociedad. No obstante, al igual que con cualquier tecnología, también existe el peligro de que se emplee de manera inadecuada o con malas intenciones. A continuación, recopilamos 5 ejemplos de usos maliciosos de la inteligencia artificial:
1. Los estudiantes de escuelas y universidades delegan las tareas en el Chat GPT
La inquietud en el ámbito educativo no pasa desapercibida. Los docentes se sienten angustiados por el uso que los alumnos dan a la IA, delegándoles la creación de trabajos académicos como ensayos o proyectos. Aunque la IA puede ser una herramienta valiosa para la investigación y el análisis de datos, su uso inapropiado podría ser considerado como plagio o fraude académico.
Un caso ilustrativo es el presentado por el medio Motherboard, en el que un estudiante de bioquímica que se identifica como @innovate_rye en Reddit, explicó que algunas herramientas de IA son útiles para realizar tareas simples que exigen respuestas extensas. Además, comentó que utilizó una IA para llevar a cabo una asignación.de la institución académica donde se le solicitaba mencionar cinco aspectos positivos y negativos de la biotecnología.
«Yo le enviaba a la IA una interrogante del tipo ‘¿cuáles son las cinco ventajas y desventajas de la biotecnología?’ y ella proporcionaba una respuesta que me otorgaba una calificación excelente. Continúo realizando mis tareas en las áreas que necesito aprender para aprobar, solo empleo la IA para que gestione las cuestiones que no me interesan o que considero triviales», manifestó el estudiante.
La única solución, por el momento, que han encontrado las instituciones educativas es regular el uso de las IA entre los estudiantes. Varios colegios y universidades alrededor del mundo, incluyendo Estados Unidos, Australia, India, Francia y España, han prohibido ChatGPT al considerar su uso inapropiado por parte de los alumnos.
En Nueva York se prohibió la utilización de ChatGPT en todas las escuelas públicas. Por otro lado, el medio The Guardian, indicó que las ocho universidades australianas más destacadas, unidas en el denominado Group of Eight (Grupo de las Ocho), se han visto forzadas a cambiar sus métodos de evaluación para prevenir que sus estudiantes hagan uso de la IA para conseguir calificaciones sobresalientes.
2. Imágenes fraudulentas de políticos y celebridades para crear noticias
Uno de los incidentes más notorios fue (y sigue siendo) las imágenes alteradas del Papa Francisco con diversos atuendos contemporáneos. La más famosa fue una en la que se le veía con un abrigo de estilo Balenciaga, que recorrió las redes antes de que se revelara que la obra era resultado de una IA.
Igualmente, se hicieron populares las imágenes del presidente francés, Emmanuel Macron en medio de una manifestación, y del ex presidente estadounidense Donald Trump siendo arrestado, ambas situaciones que nunca han ocurrido.

Incluso la herramienta de IA Midjourney optó por suspender su versión gratuita a raíz de la proliferación de estas imágenes.
Asimismo, plataformas sociales como Instagram y TikTok empezarán a señalar cuáles de los contenidos publicados son generados por IA, precisamente para evitar que un escenario ficticio sea presentado como uno auténtico.
3. Deepfakes para crear contenido pornográfico
El deepfakes es una técnica basada en IA en la que a través de algoritmos se genera contenido falso como videos que aparentemente muestran a personas reales diciendo o realizando acciones que nunca dijeron o hicieron en la realidad. Esto se logra mediante la superposición de la cara de una persona en un video existente, que puede ser de alguien diferente o de un evento que nunca ocurrió.
A pesar de que el deepfakes puede utilizarse de manera beneficiosa (por ejemplo, en la creación de contenido audiovisual destinado al entretenimiento o la producción demodelos digitales en la cinematografía), también puede ser empleada para difundir desinformación o engañar a las personas de manera intencionada. Por ejemplo, elaborar contenido pornográfico de personalidades públicas.
Esta actividad ya ha impactado a figuras como Scarlett Johansson, Emma Watson, Taylor Swift, Gal Gadot y Maisie Williams. Asimismo, se han reportado casos de ciertos creadores de contenido como Sweet Anita, la streamer del Reino Unido con más de 1,9 millones de seguidores en Twitch, que fue víctima del uso de su imagen para generar contenido pornográfico que se comercializa en la web.

4. Suplantación de identidad para robos y fraudes
La inteligencia artificial también ha ampliado las oportunidades para que ciertos individuos cometan suplantaciones de identidad. Con la tecnología de deepfakes mencionada previamente, es posible suplantar identidades gracias al alto nivel de detalle logrado al crear imágenes. Los criminales pueden utilizar deepfakes para generar perfiles falsos en redes sociales, llevar a cabo phishing o realizar ciberataques.
Un ejemplo real de este riesgo es el de una empresa británica que recibió una llamada de quien supuestamente era el CEO de la compañía, ordenando transferir cerca de 240.000 dólares (220.000 euros) a un banco húngaro. La llamada resultó creíble porque la voz era idéntica a la del CEO, algo que se alcanzó mediante un análisis de horas de grabaciones a cargo de una IA que se dedicó a examinar detenidamente las grabaciones de voz de la persona para poder replicarla con precisión.
Los rasgos físicos también pueden ser reproducidos. De acuerdo con una investigación realizada por la Escuela de Informática Blavatnik y la Escuela de Ingeniería Eléctrica, tan solo unas 9 caras generadas por IA al observar los patrones más comunes de vastos bancos de imágenes son suficientes para suplantar la identidad de entre el 42% y el 64% de las personas. «La autenticación facial es extremadamente susceptible, incluso si no se dispone de información sobre la identidad del objetivo», menciona el informe.
5. Generación de contenido inapropiado
Finalmente, uno de los usos más perjudiciales de la IA es la creación de contenido inapropiado como imágenes y videos que reflejan violencia, pornografía o que infringen la ley, lo cual puede causar graves daños psicológicos a los usuarios o ser utilizado para el acoso y la extorsión virtual.
Un ejemplo de cómo se está utilizando la IA para crear estos contenidos es Unstable Diffusion, un canal de Discord que empleaIA y de la que numerosos usuarios hacen uso para crear pornografía, con el apoyo de bots capacitados y con miles de imágenes. Sorprendentemente, la herramienta fue concebida inicialmente para producir imágenes artísticas, pero rápidamente su aplicación se distorsionó.
En la actualidad, Unstable Diffusion se encuentra segmentado en varios canales, cada uno destinado a una inclinación o fetiche sexual diferente. Algunos están dirigidos únicamente a hombres, otros solo a mujeres, personas trans, etc. Sin embargo, algunos pueden resultar bastante inusuales y hasta inquietantes, como sexo no humano, situaciones de terror, etc.
Otro ejemplo que generó controversias fue el de Lensa, una aplicación que se volvió popular por la creación de avatares a partir de fotografías. Por lo general, cuando las imágenes pertenecen a hombres, los resultados suelen ser guerreros, héroes o políticos; sin embargo, cuando se trata de mujeres, existe un claro sesgo hacia generar avatares de modelos desnudas. Melissa Heikkilä, reportera especializada en IA de Technology Review, documentó el fenómeno relacionado con Lensa y concluyó que de 100 avatares creados con su imagen, 16 eran desnudos y 14 poseían ropa ajustada y provocativa.

Por otro lado, un análisis llevado a cabo por la Universidad Johns Hopkins y el Instituto de Tecnología de Georgia, evidenció que un sistema de IA puede desarrollar sesgos raciales y de género. Esto quedó claro después de que los científicos le proporcionaran imágenes de diversas personas a unos robots con IA y les solicitaran identificarlos según los términos que les ofrecían. Al pedirles señalar a un delincuente, optaron por una persona negra, y en el caso de la mujer, fue seleccionada al utilizar el término ama de casa.
¿Conoces algún otro caso de mal uso de la IA? Nos gustaría leerte 👇
Foto: Depositphotos