
“`html
Hace aproximadamente un año o dos, me topé con un libro que me impactó de manera significativa. Su título es Vida 3.0, redactado por el científico e investigador sueco Max Tegmark. En esta obra, Tegmark expone de forma clara y muy exhaustiva conceptos fundamentales de la inteligencia artificial, su trayectoria, las distintas variantes de IA que existen y, primordialmente, los desafíos que la IA plantea para el futuro de la humanidad. Sin duda, te lo sugiero fervientemente.
En el libro, también se relatan los acontecimientos que condujeron a la fundación del Future of Life Institute en 2014 y su posterior evolución, incluyendo un episodio fascinante en el que se discute la cumbre de Asilomar, donde se formulaban los principios de Asilomar, los cuales deberían guiar el desarrollo de la IA en el futuro.
No se trata de una organización ni de una cumbre cualquiera. Entre aquellos que participaron en la creación del Future of Life Institute, se encuentran figuras tan notables como el fallecido Stephen Hawking, Elon Musk, Sam Altman (cofundador de OpenAI) o Jaan Tallin (Skype), entre muchos más.
Hace algunas semanas, el Future of Life Institute fue noticia debido a una carta abierta firmada por (además de algunos mencionados anteriormente) diversos investigadores y miembros destacados de la comunidad científica y empresarial a nivel global, incluido Steve Wozniak (Apple). El propósito de la carta era solicitar que tanto OpenAI como otras compañías de inteligencia artificial detuvieran sus investigaciones por, al menos, 6 meses para reflexionar sobre el impacto que generan estas herramientas.
De este modo, la carta enfatizaba la relevancia de adherirse a los principios de Asilomar y reafirmaba la idea de que la IA posee un considerable potencial positivo para la humanidad, pero también conlleva numerosos riesgos:
«Los sistemas de IA que igualan la inteligencia humana pueden presentarprofundos peligros para la sociedad y la humanidad, tal como lo evidencia una extensa investigación aceptada por los principales laboratorios de IA. (…) la IA avanzada podría significar un cambio radical en la historia de la vida en la Tierra y debe ser planificada y administrada con el cuidado y los recursos necesarios.
Desafortunadamente, este grado de planificación y gestión no está ocurriendo, a pesar de que en los meses recientes los laboratorios de IA han entrado en una carrera desenfrenada por desarrollar e implementar mentes digitales cada vez más potentes que ni siquiera sus creadores pueden entender, prever o controlar con fiabilidad. (…) Los sistemas avanzados de IA deben ser desarrollados solo cuando estemos seguros de que sus consecuencias serán favorables y sus riesgos serán manejables».
Si decides leer el libro que te recomendé al inicio, entenderás el porqué de esta preocupación. La inquietud radica en asegurar que los claros beneficios de la IA no sean eclipsados porconsecuencias adversas (Tegmark específicamente se muestra alarmado por la trayectoria de la IA en cuanto a respetar la privacidad de los usuarios, regular la evolución de sistemas económicos enteros e incluso su papel en contextos bélicos a través de armas autónomas).
El desafío será determinar si la comunidad internacional responderá a este llamado. En
“`
En aquel instante, un protagonista fundamental como Sam Altman, uno de los creadores de ChatGPT y Dalle2, dos de los principales catalizadores del avance en la IA en los últimos meses, no suscribió la carta.
Sin embargo, toda esa situación ha cambiado.
El CEO de OpenAI, Sam Altman, junto al CEO de Google DeepMind, Demis Hassabis, además de Max Tegmark del MIT y otros referentes del sector tecnológico como el cofundador de Skype, Jaan Tallinn, han firmado un manifiesto que solicita atención internacional sobre el riesgo existencial de la IA.
El contenido de dicha declaración es extremadamente breve y muy directo:
«Los especialistas en IA, los reporteros, los legisladores y el público están debatiendo cada vez más una amplia gama de riesgos importantes y urgentes relacionados con la IA. Aun así, puede ser complicado expresar preocupaciones acerca de algunos de los peligros más serios de la IA avanzada. La siguiente declaración breve busca superar este desafío y fomentar el debate. También pretende generar un entendimiento común entre el creciente número de expertos y figuras públicas que consideran seriamente algunos de los riesgos más críticos de la IA avanzada».
La carta concluye con esta afirmación:
«Reducir el riesgo de extinción derivado de la IA debería ser una prioridad global, al igual que otros peligros a nivel social, como las pandemias y la guerra nuclear»
Esta afirmación, junto con la que fue emitida hace unas semanas, establece con claridad que la mayoría abrumadora de los máximos especialistas en inteligencia artificial a nivel mundial coinciden en resaltar la necesidad de regular su desarrollo antes de que alcance un estado en el que resulte imposible controlar sus repercusiones en algunas áreas como las mencionadas anteriormente. El respaldo de Sam Altman (sin duda la figura más relevante en este ámbito en la actualidad) será crucial para incentivar a que otras grandes empresas pioneras de la IA se sumen a esta tendencia y que los organismos internacionales tomen cartas en el asunto.
Este artículo incluye enlaces de afiliados de Amazon. Usarlos para realizar compras es una manera sencilla de ayudarnos a seguir creciendo 😉