Tecnología

El coloso se despide de sus aplicaciones militares

“`html

En medio de los avances tecnológicos que hemos presenciado en los años recientes, la inteligencia artificial se ha convertido en uno de los más revolucionarios, dado que posee la habilidad de alterar por completo nuestros hábitos, costumbres y incluso la manera en que interactuamos. Si bien la inteligencia artificial ha sido concebida para proporcionar mayor confort y facilitar la existencia de los usuarios, ¿podría eventualmente representar un riesgo para la sociedad? Google se vio recientemente envuelto en la controversia en torno a este asunto y ha dado a conocer sus principios de inteligencia artificial, con los que busca regular el uso de esta tecnología en sus desarrollos venideros.

La controversia de Project Maven

Al parecer, las siete normas de la inteligencia artificial de Google emergen debido a la gran controversia y inquietud que se originó en torno al trabajo del coloso de internet en Project Maven, un programa del ejército de los Estados Unidos destinado a aplicar la Inteligencia Artificial para mejorar los sistemas de navegación de los drones militares.

En abril, al hacerse público este proyecto, más de 4.000 trabajadores de Google firmaron una carta dirigida al CEO de Google, Sundar Pichai, demandando que la compañía se desvinculara del proyecto. Ante la falta de respuesta, doce de ellos decidieron renunciar a sus cargos.

Ahora, Sundar Pichai ha optado por publicar en el blog oficial de Google una misiva en la que además de rechazar de manera tajante la posible utilización de la inteligencia artificial del gigante de internet con propósitos bélicos, también enumera las normas de la inteligencia artificial que guiarán su enfoque hacia el potencial de esta tecnología. Algo similar a las leyes de la robótica de Asimov, pero adaptado a Google.

Las siete normas de la inteligencia artificial de Google

Pichai es enfático al declarar que las siete normas de la inteligencia artificial no son meros conceptos teóricos, sino directrices concretas que “orientarán de manera activa nuestra investigación y desarrollo de productos, e influirán en nuestras decisiones empresariales”.

Así que a partir de ahora, Google se compromete a que sus futuros proyectos de inteligencia artificial se evaluarán y basarán conforme a los siguientes objetivos:

1. Ser socialmente beneficiosa

Google buscará que los desarrollos en la Inteligencia Artificial que emprenda logren impactar de manera positiva a la sociedad en áreas como atención médica, seguridad, energía, transporte, fabricación y entretenimiento, al mismo tiempo que se compromete a respetar las normas culturales, sociales y legales en los países donde opera.

2. Prevenir la creación o el refuerzo de sesgos injustos en sus algoritmos

Google garantiza que se enfocará en evitar los efectos desiguales en sus algoritmos, particularmente aquellos relacionados con características sensibles como raza, etnicidad, género, nacionalidad, ingresos, orientación sexual, capacidades y creencias políticas o religiosas.

3. Ser desarrollada y probada para asegurar su seguridad

Google implementará rigurosas prácticas de seguridad y protección
“`
con el objetivo de que las evaluaciones de tecnologías de Inteligencia Artificial no ocasionen perjuicios, e incluso puedan realizarse en entornos controlados, además de monitorear su desempeño tras su implementación.

4. Actuar con responsabilidad hacia las personas

Los sistemas de inteligencia artificial de Google siempre contarán con supervisión y guía de seres humanos responsables detrás de ellos.

5. Proteger la privacidad

Google desea garantizar a los usuarios que su inteligencia artificial protegerá la privacidad de los datos que recoja, y destaca que los usuarios recibirán notificaciones y formularios de consentimiento.

6. Mantener elevados estándares de excelencia científica

Google se compromete a divulgar y colaborar en el ámbito del conocimiento de la inteligencia artificial mediante la publicación de material educativo, mejores prácticas de investigación que permitan a un mayor número de personas desarrollar aplicaciones útiles de IA, así como llevar a cabo esta investigación abierta con un estricto rigor intelectual y honestidad.

7. Estar disponible para aplicaciones que se alineen con estos principios

La inteligencia artificial de Google restringirá las aplicaciones potencialmente perjudiciales o abusivas, y evaluará el uso que se le dará basándose en diversos factores: finalidad y uso primario, naturaleza y singularidad, escala, y naturaleza de la implicación de Google.

Un punto final que destacó Pichai en su comunicado es que, aunque Google no está desarrollando inteligencia artificial con la finalidad de crear armamento, sí seguirá colaborando con gobiernos y fuerzas armadas en muchas otras áreas, que abarcan la seguridad cibernética, formación, reclutamiento militar o atención médica para veteranos, así como búsqueda y rescate.

De este modo, y tal como Isaac Asimov anticipó en sus novelas de ciencia ficción, el avance de las tecnologías de inteligencia artificial debe regularse con principios éticos, pero… ¿serán suficientes estas normativas?

[Tweet «La IA de #Google será «beneficiosa para las personas»: conoce las 7 leyes de la IA.»]

Imagen: Depositphotos

Icrono Magazine

¡Hola! Soy Icrono Avatar, responsable de todo el contenido de ICRONO Magazine. Gracias a todo mi equipo de ICRONO Real Time Marketing, conseguimos haceros llegar todas las novedades y tendencias digitales. ¡Puedes sugerirnos cualquier mejora en los comentarios de los articulos!
Botón volver arriba