Tecnología

La Evolución de los Bots: Creando Opiniones y Reseñas Personalizadas como Nunca Antes

“`html

Parece que ahora tampoco podemos confiar en las evaluaciones de productos que encontramos en tiendas de productos y servicios en línea. Investigadores de la Universidad de Chicago han logrado desarrollar, gracias a la inteligencia artificial (IA), un software que permite redactar automáticamente reseñas fraudulentas que resultan altamente convincente.

Específicamente, esta nueva implementación de la tecnología representa una grave amenaza para plataformas en línea como Amazon o Yelp, donde las opiniones de los usuarios tienen un impacto fundamental y un incremento de reseñas falsas podría perjudicar su reputación.

Inteligencia artificial capaz de juzgar como si fuera un individuo real

El estudio ha sido realizado por un grupo de científicos de la Universidad de Chicago y busca ejemplificar cómo un algoritmo desarrollado con IA y la técnica de Deep Learning (RNN o redes neuronales recurrentes) puede ser utilizado para generar reseñas fraudulentas indetectables.

Al interrogar a 600 navegantes sobre diversas reseñas en línea en Yelp, se constató que los usuarios no solo no creían que las reseñas falsas eran verídicas, sino que incluso las consideraban beneficiosas.

Lo que resulta aún más alarmante es que las reseñas fraudulentas generadas por el algoritmo no fueron identificadas por programas especializados en la detección de plagios. Los investigadores subrayan que esto evidencia que el algoritmo puede desarrollar la capacidad de opinar como si fuese un cliente auténtico e influir en otros usuarios.

reseñas falsas humanas y no humanas
Imagen: Universidad de Chicago

¿En qué se asemeja una reseña falsa generada con IA a una opinión auténtica?

Un ejemplo de reseña falsa podría ser esta: «Me encanta este sitio. Fui con mi hermano y pedimos la pasta vegetariana y estaba exquisita. La cerveza era buena y la atención fue excepcional. Sin duda, recomendaría este lugar a cualquiera que busque un buen sitio para disfrutar de un gran desayuno y un pequeño establecimiento con una excelente oferta».

A simple vista, podemos notar que no hay nada sospechoso en esta opinión. Primero relata su experiencia y después proporciona un par de sugerencias para que la gente considere visitar el lugar. Aunque la última frase es algo inusual, no se distingue demasiado de una expresión que podría utilizar un usuario cualquiera tras haber visitado el lugar.

Las reseñas falsas: una amenaza para la credibilidad de Internet

Es verdad que en la
“`

En la actualidad ya se difunden opiniones engañosas para beneficiar o perjudicar empresas, productos y servicios, pero el gasto en tiempo y dinero invertido es mucho mayor que el que se generaría con un software de estas características. Esto implica que si estas prácticas llegaran a normalizarse, también se impulsaría su difusión masiva por Internet.

Sin embargo, los investigadores indican que a pesar de todo, podría haber una forma de identificar las opiniones falsas. Aunque las opiniones generadas por el software pueden parecer semejantes a las de un individuo real, siguen existiendo ciertas diferencias sutiles – como la separación de letras o caracteres– que un programa diseñado adecuadamente podría reconocer.

[Tweet «Con la IA se podrían producir miles de opiniones fraudulentas de forma masiva y gratuita»]

Una tecnología que podría ser utilizada para generar otros contenidos maliciosos en Internet

Ben Y. Zhao, académico en ciencias de la computación y uno de los responsables de este estudio, ha expresado que no tiene conocimiento de ningún caso en el que la IA haya sido empleada para crear falsificaciones maliciosas de opiniones. No obstante, admite que a una persona con competencia en este asunto no le resultaría difícil desarrollar un sistema similar al de su investigación.

Por otro lado, Zhao subraya que lo más alarmante no es que un algoritmo pueda redactar opiniones engañosas en Yelp o Amazon. Advierte que esta tecnología puede ser utilizada para otros propósitos, por ejemplo “artículos completos escritos en un blog por un robot”. En ese escenario, sería necesario “verificar de dónde proviene la información, cómo se puede corroborar, etcétera”.

El estudio se titula “Automated Crowdturfing Attacks and Defenses in Online Review Systems” y será expuesto en la ACM Conference on Computer and Communications Security a finales de este año. Si quieres informarte más, puedes leer el informe completo aquí.

 

Imagen: DepositPhotos

Icrono Magazine

¡Hola! Soy Icrono Avatar, responsable de todo el contenido de ICRONO Magazine. Gracias a todo mi equipo de ICRONO Real Time Marketing, conseguimos haceros llegar todas las novedades y tendencias digitales. ¡Puedes sugerirnos cualquier mejora en los comentarios de los articulos!
Botón volver arriba