
La preocupación por los avances de la inteligencia artificial es un asunto que ha ido adquiriendo relevancia en los últimos meses gracias a su veloz evolución y a la forma en la que se está implementando en diversas áreas laborales.
En este contexto, el fundador de Tesla, Twitter y SpaceX, Elon Musk, junto con el cofundador de Apple, Steve Wozniak, y otros personajes destacados en el ámbito digital han manifestado su inquietud por el acelerado desarrollo de los modelos de IA de lenguaje, como GPT-4, y cómo esto podría ocasionar repercusiones negativas para la sociedad, dado que existe la posibilidad de que numerosos empleos se extingan y se eleve el grado de desinformación.
Solicitan una pausa mínima de 6 meses para perfeccionar y establecer protocolos de seguridad
Los razonamientos de estos expertos fueron presentados en una carta abierta emitida por el Instituto para el Futuro de la Vida, una organización sin fines de lucro que busca establecer regulaciones sobre el tema de la IA, fundada en 2014 por figuras del ámbito empresarial y científico como Elon Musk, Stephen Hawking o Max Tegmark. Su propósito es que tanto OpenAI como otras compañías de inteligencia artificial detengan sus investigaciones por al menos 6 meses para detenerse a reflexionar sobre el impacto de estas herramientas.
La solicitud se fundamenta en la preocupación sobre los sistemas de IA con capacidades competitivas humanas. Esto se debe a los posibles peligros que podrían suponer para la sociedad y la humanidad, y porque se estima que su desarrollo se está realizando sin una planificación y manejo adecuados.
«Hacemos un llamado a todos los laboratorios de IA para que cesen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más avanzados que GPT-4. Esta pausa debe ser pública y verificable, e involucrar a todos los actores clave. Si no es posible implementar tal pausa rápidamente, los gobiernos deberían intervenir e instituir una moratoria», expresa la petición.
La solicitud sugiere que los laboratorios de IA deberían utilizar el tiempo de pausa para diseñar e implementar nuevos protocolos de seguridad que permitan desarrollar IA con un mayor grado de supervisión. Dichos protocolos tienen que asegurar que los sistemas que se alineen con ellos sean seguros más allá de cualquier duda razonable. Esto no implica una paralización del desarrollo de la IA en general, sino simplemente una marcha más lenta en el crecimiento de sus capacidades.
Regulación de la inteligencia artificial
«Los sistemas de IA con inteligencia competitiva humana pueden representar profundos riesgos para la sociedad y la humanidad, como lo indica una extensa investigación reconocida por los principales laboratorios de IA. (…) la IA avanzada podría suponer un cambio radical en la historia de la vida en la Tierra, y debe ser planificada y gestionada con la debida atención y recursos. Desafortunadamente, este grado de planificación y gestión no está teniendo lugar, a pesar de que en los meses recientes los laboratorios de IA se han embarcado en una carrera desenfrenada por desarrollar e implementar mentes digitales cada vez más potentes que nadie, ni siquiera sus propios creadores, pueden prever o controlar de manera fiable.
Los sistemas de IA modernos están comenzando a ser competitivos para las personas en tareas generales, y debemos interrogarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los empleos? ¿Deberíamos desarrollar inteligencias no humanas que eventualmente puedan superarnos en rendimiento?
número, volverse más astutos, obsoletas y sustituirnos? ¿Deberíamos arriesgarnos a ceder el control de nuestra civilización?
Tales determinaciones no deben ser delegadas a líderes tecnológicos no elegidos. Los sistemas avanzados de IA deberían ser diseñados únicamente cuando estemos convencidos de que sus consecuencias serán beneficiosas y sus riesgos serán gestionables. Esta confianza debe estar bien fundamentada y aumentarse con la magnitud de las repercusiones potenciales de un sistema. La reciente declaración de OpenAI sobre la inteligencia general artificial indica que «En cualquier momento, podría ser esencial obtener una evaluación independiente antes de iniciar el entrenamiento de sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la velocidad de crecimiento de la computación utilizada para desarrollar nuevos modelos». Estamos de acuerdo. Ese momento es ahora».
La solicitud que ya cuenta con casi 1.400 firmas plantea que los creadores de IA deberían colaborar con los legisladores para agilizar el establecimiento de un marco regulador que supervise y regule los sistemas de inteligencia artificial de alta capacidad computacional.
Se propone que el cuerpo regulador de IA deba contar con autoridades reguladoras, sistemas de trazabilidad y marcas de agua, un ecosistema de auditoría y certificación, responsabilidad por los daños ocasionados por la IA, financiación pública para la investigación técnica de seguridad de la IA e instituciones para abordar las perturbaciones económicas y políticas.
«En cualquier momento, podría ser esencial obtener una evaluación independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la velocidad de crecimiento de la computación utilizada para desarrollar nuevos modelos», señala la carta abierta.
Apoyos a la carta
La carta pública cuenta con el respaldo de diversas personalidades influyentes en el ámbito tecnológico. Entre ellos se encuentran el cofundador de Apple Steve Wozniak; el CEO de Tesla, SpaceX y Twitter, Elon Musk; el cofundador de Skype Jaan Tallinn; el director ejecutivo de Stability AI Emad Mostaque; el cofundador de Pinterest Evan Sharp; y el CEO de Getty Images Craig Peters.
Foto: Freepik