- A medida que herramientas de inteligencia artificial como ChatGPT, Bing y Bard se apoderan de Internet, los expertos advierten de que la nueva tecnología podría cambiar radicalmente nuestra economía y nuestras vidas.
- ¿Es la inteligencia artificial una herramienta útil o una bomba de relojería?
Cuando Sam Altman puso fin a su primera startup a principios de 2012, había pocos indicios de que su camino fuera a ser paralelo al del entonces niño prodigio de Silicon Valley, Mark Zuckerberg.
Mientras Altman sopesaba sus próximos movimientos tras cerrar Loopt, su startup de localización compartida, el CEO de Facebook se encontraba en la vanguardia de la conquista mundial de las redes sociales y dirigía su empresa hacia una exitosa salida a bolsa que valoró la creación de Zuckerberg en 104.000 millones de dólares. Pero poco más de una década después, las tornas han cambiado radicalmente. Hoy en día, la promesa de las redes sociales como fuerza unificadora para el bien casi se ha derrumbado, y Zuckerberg está recortando miles de puestos de trabajo tras el accidentado giro de su empresa hacia el metaverso. Y es Altman, un joven de 37 años que abandonó los estudios en Stanford, quien ahora está viendo cómo su estrella alcanza cotas vertiginosas y se enfrenta a los peligros de un gran poder.
Altman y su empresa OpenAI han puesto a Silicon Valley sobre aviso desde que lanzaron ChatGPT al público en noviembre. Este modelo de inteligencia artificial, capaz de escribir prosa, código y mucho más, es quizá la tecnología más poderosa —e impredecible— de su generación. También ha sido una mina de oro para Altman, que le ha valido un acuerdo multimillonario de varios años con Microsoft y la incorporación de 100 millones de usuarios en sus dos primeros meses. El ritmo de crecimiento supera con creces el de TikTok e Instagram, lo que la convierte en la aplicación de Internet de mayor crecimiento de la historia.
Al igual que las redes sociales en 2012, el sector de la IA se encuentra al borde de un inmenso cambio. Y mientras las redes sociales iban a remodelar nuestro mundo en los próximos 10 años, los expertos dicen que las consecuencias de los próximos pasos de la IA serán un orden de magnitud mayor. Según los investigadores, los modelos actuales de IA apenas están arañando la superficie del potencial de la tecnología. Y a medida que Altman y su equipo avanzan, la IA podría remodelar nuestra economía y nuestras vidas más que las redes sociales.
«La IA tiene el potencial de ser una tecnología transformadora como lo fueron Internet, la televisión, la radio o la imprenta de Gutenberg», afirma el profesor Michael Wooldridge, director de investigación fundacional sobre IA en el Instituto Turing. «Pero la forma en que se va a utilizar, creo, apenas podemos imaginarla».
Como ha demostrado el historial de Zuckerberg en Facebook, la tecnología sin control puede tener consecuencias profundas, y si la IA no se controla o si se prioriza el crecimiento sobre la seguridad, las repercusiones podrían ser irreparables.
Tecnología revolucionaria, hecha peligrosamente
Dan J. Wang, ahora profesor adjunto de Empresa y Sociología en la Columbia Business School, solía pasar en coche por delante de la oficina de Loopt de Altman en Palo Alto, California, cuando era estudiante en Stanford. Me confesó que veía muchos paralelismos entre Altman y Zuckerberg: ambos son «evangelistas de la tecnología» y «líderes realmente convincentes» capaces de ganarse la fe de quienes les rodean. Ninguno de los dos fue el primero en emprender en sus respectivos campos. En el caso de Facebook, rivales como Myspace y Friendster le llevaban ventaja, mientras que la IA lleva décadas desarrollándose. Pero lo que les falta en originalidad lo compensan en tolerancia al riesgo.
Tanto Zuckerberg como Altman están dispuestos a ampliar el uso público de las nuevas tecnologías a un ritmo mucho más rápido que sus predecesores, más cautos, afirma Wang. «La otra cosa realmente interesante de estos dos líderes es que son muy buenos haciendo accesibles las tecnologías», me explicó.
Pero la línea que separa el desarrollo de tecnología puntera para mejorar la vida de la gente de lanzar un producto no probado a un público incauto puede ser muy tenue. Y el historial de Zuckerberg ofrece muchos ejemplos de cómo puede salir mal. En los años transcurridos desde la salida a bolsa de Facebook en 2012, la empresa ha lanzado docenas de productos al público, al tiempo que ha influido profundamente en el mundo real.
El escándalo de Cambridge Analytica puso de manifiesto los problemas de privacidad que conlleva la recopilación de datos personales de miles de millones de personas; el uso de Facebook para propiciar actos violentos como el genocidio en Myanmar y la insurrección del Capitolio demostró lo tóxica que puede ser la desinformación en las redes sociales; y los perjuicios de servicios como Instagram para la salud mental han planteado preguntas incómodas sobre el papel de las redes sociales en nuestra vida cotidiana.
La reputación maltrecha de Facebook se debe a que la empresa se adelantó a los consumidores, los reguladores y los inversores, que no comprendieron las consecuencias de la interacción online de miles de millones de personas a una escala y velocidad sin precedentes. Facebook y Zuckerberg se han disculpado por sus errores, pero no por el enfoque de su líder evangelista, que ha llegado a encarnar el mantra de la tecnología «muévete rápido y rompe cosas». Si las redes sociales ayudaron a exponer los peores impulsos de la humanidad a escala masiva, la IA generativa podría ser un turbocompresor que acelere la propagación de nuestros defectos.
«El hecho de que la tecnología de IA generativa se haya lanzado al mercado sin la suficiente cautela o sin muchos mecanismos de aprobación, este tipo de cosas está en consonancia con la mentalidad de ‘actuar rápido y romper cosas'», afirma Margaret Mitchell, investigadora científica de IA y cofundadora de la división de ética de la IA de Google.
Para Heidy Khlaaf, director de la empresa de ciberseguridad Trail of Bits y antiguo ingeniero de seguridad de sistemas de OpenAI, el actual ciclo de exageración en torno a la IA generativa, que prioriza el valor comercial sobre el impacto social, está impulsado en parte por empresas que hacen afirmaciones exageradas sobre la tecnología en su propio beneficio.
«Todo el mundo está tratando de desplegarla e implementarla sin comprender los riesgos que muchos investigadores realmente increíbles han estado estudiando durante al menos los últimos cinco años», afirma.
«Tu nueva tecnología no debería salir al mundo si puede provocar esos daños colaterales».
Esto debería ser una dura advertencia para Altman, OpenAI y el resto de la industria de la inteligencia artificial, según Mitchell. «Una vez implementado en sistemas en los que la gente confía, ya sea para hechos o para decisiones vitales, no se trata sólo de una novedad», sentencia.
OpenAI abre la caja de Pandora
Aunque la tecnología de base de la IA existe desde hace tiempo, el equilibrio de poder entre ética y rentabilidad en el sector está empezando a cambiar de dirección. Tras conseguir una inversión multimillonaria de Microsoft en enero, se rumorea que OpenAI está valorada en 30.000 millones de dólares y no ha perdido tiempo en comercializar su tecnología. Microsoft anunció la integración de la tecnología de OpenAI en su motor de búsqueda Bing el 7 de febrero y dijo que planeaba incorporar la IA a otros productos de Microsoft.
La medida ha desencadenado una especie de carrera armamentística de la IA. Google, que durante mucho tiempo fue la fuerza dominante de Silicon Valley en IA, ha acelerado el ritmo con sus propios esfuerzos comerciales. El gigante tecnológico lanzó un competidor de ChatGPT llamado Bard sólo 68 días después del anuncio de Bing. Pero el lanzamiento de Bard también sirvió de advertencia sobre el peligro de escalar demasiado rápido: el anuncio del lanzamiento estuvo plagado de errores y las acciones de Google se desplomaron.
Y no es que Bard sea la única herramienta de IA con problemas. En su corta vida, ChatGPT ha demostrado que es propenso a las «alucinaciones», es decir, respuestas seguras que parecen verdaderas pero son falsas. También son frecuentes los sesgos y las imprecisiones.
Los expertos no se extrañan de este planteamiento de arrojar la cautela por la borda: Mitchell explica que, aunque muchas empresas habrían tenido miedo de ser las primeras en actuar, dada la atención que les habría atraído, los proyectos públicos de OpenAI han facilitado mucho la tarea a todos los demás. «Es como cuando vas por la autopista y todo el mundo va a toda velocidad. Ellos van rápido. Yo también puedo hacerlo'», resume.
Los expertos afirman que Bing, Bard y otros modelos de inteligencia artificial deberían resolver sus problemas tecnológicos a medida que evolucionen. El verdadero peligro, dicen, es la supervisión humana. «Hay un reto tecnológico en el que confío más en que la IA mejore con el tiempo, pero luego está el reto de la gobernanza de cómo los humanos gobernarán la IA: ahí, soy un poco más escéptico de que estemos en el buen camino», explica Johann Laux, investigador postdoctoral del Oxford Internet Institute.
Wooldridge, del Instituto Turing, considera que cuestiones perniciosas como las noticias falsas podrían experimentar una auténtica «industrialización» a manos de la IA, algo muy preocupante dado que los modelos ya «producen rutinariamente falsedades muy plausibles». «Lo que esta tecnología va a hacer es simplemente llenar nuestro mundo de falsedades imperceptibles», dice. «Eso hace que sea muy difícil distinguir la verdad de la ficción».
También podrían surgir otros problemas. Yacine Jernite, investigador científico de la empresa de IA Hugging Face, ve muchas razones para preocuparse por el uso de chatbots de IA para estafas financieras. «Lo que necesitas para estafar a alguien es establecer una relación con él. Necesitas algo que chatee con ellos y se sienta implicado», afirma. «Ese no es solo un uso indebido de los chatbots: es el uso principal de los chatbots y en lo que intentan ser mejores».
Khlaaf, por su parte, ve un riesgo mucho más generalizado: el desmantelamiento total de la integridad científica, la exageración extrema de «estereotipos que perjudican a las comunidades marginadas» y los incalculables peligros físicos de la implantación de la IA en ámbitos críticos para la seguridad, como la medicina y el transporte.
Los expertos tienen claro que la IA aún está lejos de alcanzar todo su potencial, pero la tecnología se está desarrollando rápidamente. La propia OpenAI se está moviendo con rapidez para lanzar nuevas iteraciones de su modelo. GPT-4, una versión mejorada de ChatGPT, está en el horizonte. Pero el poder disruptivo de la IA y los peligros que plantea ya son evidentes. Para los líderes, el enfoque consiste en «pedir después perdón», afirma Mitchell.
El mayor error de Zuckerberg fue permitir que la ética jugara un papel secundario frente a la rentabilidad. La creación por parte de Facebook de una junta de supervisión es una señal de que la empresa está dispuesta a asumir cierta responsabilidad, aunque muchos dirán que es demasiado poco y demasiado tarde para matar a los demonios desatados por la plataforma. Y ahora Altman se enfrenta al mismo dilema.
Altman ha dado algunas muestras de que es consciente de los posibles daños de la IA. «Si crees que entiendes el impacto de la IA, es que no lo entiendes y aún tienes que aprender más. Si reconoces que no lo entiendes, es que lo entiendes de verdad». (-alan watts, más o menos)», tuiteó el 3 de febrero. Dicho esto, los investigadores tienen poca información sobre los datos que se han introducido en la máquina de OpenAI, a pesar de los numerosos llamamientos que se han hecho para que OpenAI sea, de hecho, abierta. Levantar la tapa de su caja negra ayudaría mucho a demostrar que se toma en serio sus problemas.
Wang, de Columbia, cree que Altman está lidiando con las consecuencias de la IA, ya sea en lo que respecta a su imparcialidad, precisión o transparencia. Pero atenerse a un sistema ético que se asegure de no hacer daño, al tiempo que se intenta ampliar la próxima gran cosa de la tecnología, «es casi imposible», según Wang.
«Si nos fijamos en sus tuits recientes, se muestra sensible a todas estas cuestiones, pero el problema de ser sensible a todas ellas es que invariablemente van a existir contradicciones con lo que se puede conseguir», afirma Wang.
Es poco probable que el ritmo frenético con el que los reguladores decidieron actuar contra Facebook cambie en cuanto decidan tomarse en serio la vigilancia de las amenazas que plantea la IA. Esto significa que Altman se quedará en gran medida sin control a la hora de abrir la caja de Pandora de la IA. Las redes sociales han amplificado los problemas de la sociedad, en palabras de Wooldridge. Pero la IA podría crear otros nuevos. Altman tendrá que hacerlo bien, por el bien de todos. De lo contrario, podrían apagarse las luces para todos.