Gary Marcus

Gary Marcus Athena Vouloumanos

Investigación

Gary Marcus sobre la IA: “Cometemos los mismos errores desde hace 30 años”

El científico, emprendedor y superventas critica el 'hype' de la IA y el poder desmesurado de los oligarcas tecnológicos, y propone vías para avanzar.

Más información: Senén Barro, pionero español en inteligencia artificial: “El avance tecnológico debe ir de la mano de la justicia social”

Publicada
Actualizada

Es el azote de los vendehúmos de Silicon Valley. Voz líder en el campo de la inteligencia artificial. Un escéptico “amante de la IA” que busca, con sus críticas, hacer avanzar el campo como si de un entrenador exigente se tratara, dice el propio Gary Marcus en entrevista exclusiva con DISRUPTORES-EL ESPAÑOL, a su paso por Andorra a finales de marzo.

Científico cognitivo, profesor emérito de Psicología y Neurociencia en la Universidad de Nueva York y emprendedor en serie, fue un alumno precoz. Aprendió a programar a los ocho años y construyó su primer programa de IA a los 15 años: un sistema que traducía del latín al inglés. Un hito que le ayudó a acceder a la Universidad dos años antes de lo habitual, sin haber terminado siquiera la secundaria.

Su incursión temprana en el procesamiento del lenguaje sentó las bases de una carrera que combina la ciencia cognitiva, la lingüística, la filosofía y la inteligencia artificial. "Quería entender cómo funciona la inteligencia natural desde múltiples perspectivas", recuerda Marcus.

Doctorado en el MIT bajo la tutela de Steven Pinker, es fundador de Robust.AI y, anteriormente, de Geometric Intelligence (que vendió a Uber en 2016). Ahora trabaja “en algo nuevo”, sin desvelar qué.

En su último libro, 'Taming Silicon Valley', el autor superventas aboga por una IA “justa, equitativa y confiable”, y expone sus principales problemas y riesgos, y cómo atajarlos.

Ciencia vs religión

Una de las mayores preocupaciones de Marcus es el hype actual: la promesa exagerada de la IA generativa y los grandes modelos de lenguaje (LLMs). "La gente quiere creer que los LLMs son la clave para la inteligencia artificial general (IAG), pero la creencia no tiene lugar en la ciencia” asegura.

“Veo un fervor casi religioso alrededor de la IA, y me rompe el corazón que la gente se haya vuelto tan ciega a las limitaciones de la tecnología" añade el científico.

El conocimiento interdisciplinar de Marcus, tanto técnico como en el campo del desarrollo del lenguaje humano y la neurociencia cognitiva, le permite tener una visión holística frente al reduccionismo que abunda en el campo de la IA. Esta visión le ha permitido advertir y anticiparse a algunas de las limitaciones de la IA actual.

Marcus carga las tintas contra los líderes de la IA generativa -entre ellos, el CEO de Open AI, Sam Altman- por confundir a la población inflando las expectativas. En concreto, por sus reclamos de que la IA general llegará en los próximos dos o tres años, o incluso antes.

Además, para hacer justicia a sus predicciones -argumenta- esos mismos directivos redefinen constantemente lo que significa la IAG, que ha pasado de ser un sistema generalmente más inteligente que un humano, a uno que supera a los humanos en las tareas económicamente más valiosas, o que genere una gran suma de dinero. “Bajo esa premisa, los iPhone deberían considerarse IAG, lo cual es absurdo”, añade.

Incluso tomando la definición más limitada, el experto arguye que las posibilidades de que veamos un sistema así en tres años son cercanas a cero. “Los LLMs no saben contar, no pueden jugar al ajedrez sin hacer movimientos ilegales... Pueden generar un lenguaje fluido, pero no entienden el mundo. No son fiables para resolver problemas del mundo real”, apunta.

IA ‘neurosimbólica’

Marcus critica que las decisiones de inversión y desarrollo de los últimos 30 años han apuntado a un camino fallido: "Seguimos cometiendo los mismos errores. La forma dominante de IA acierta en las estadísticas, pero no en las abstracciones. Y estamos dando un poder enorme a los oligarcas tecnológicos sobre premisas defectuosas o falsas promesas, o ambas".

¿Cuál es la vía correcta, entonces? El científico apunta a una confluencia de factores, entre los que destaca un paso importante: integrar la IA actual (basada en las llamadas ‘redes neuronales’ o aprendizaje estadístico) con la IA ‘simbólica’ (basada en reglas y lógica). Esta última -predominante en el pasado- permite representar abstracciones, planificar y razonar.

Marcus lleva años defendiendo que lo ideal sería un modelo híbrido que combine lo mejor de ambas: una IA ‘neurosimbólica’. Ello permitiría capturar capacidades humanas complejas que los modelos puramente estadísticos no logran replicar. Algo que, según él, todavía nadie ha conseguido hacer del todo bien, salvo en aplicaciones puntuales como AlphaFold (de Google DeepMind).

Sea factible o no, ¿es deseable la IAG? “No estoy completamente seguro. Creo que la razón para hacerlo es que tenemos más posibilidades de alinearla con los valores humanos. Si fuera lo suficientemente inteligente como para comprender esos valores, creo que tendríamos más posibilidades de resolver algunos de los grandes problemas médicos y científicos”, destaca.

Narrativas engañosas

A Marcus le preocupan las dinámicas de poder en torno a la IA general: “¿Quién será el dueño? ¿Tenemos alguna expectativa razonable de que se utilice para el bien?”, plantea el científico. No cree, sin embargo, en predicciones catastrofistas: “No creo probable que existan en robots autónomos con malicia tipo Terminator. Los mayores riesgos provienen de actores maliciosos que hacen un mal uso de la IA y los robots”, asegura.

Marcus critica el hype en torno a la supuesta inminencia de la IAG. “Piensan que la gente prestará más atención a su urgencia si dicen que el riesgo de la IA es inminente, que las máquinas dominarán el planeta y cosas así. Pero mientras lo hacen, están creando cinco o seis empresas increíblemente poderosas”, afirma.

Entonces -prosigue- sus beneficios se dispersan y salen con el cuento de la IAG en tres años y la carrera por el liderazgo frente a China, para pedir más dinero y exenciones fiscales.

Esto ha afectado a las dinámicas de poder global. “Figuras como Sam Altman han adquirido una enorme influencia. Rutinariamente obtiene audiencias con los principales líderes mundiales, como si fuera un jefe de Estado. Mucho poder se concentra en manos de un grupo muy reducido de individuos y corporaciones”, afirma el científico.

Esto -enfatiza- no es solo una cuestión académica sino un problema para el mundo: “de cómo deberíamos asignar nuestros recursos, de dónde debería estar el poder…”. Guía cómo reaccionamos a los acontecimientos actuales y las prioridades de investigación, que están decidiendo las grandes empresas.

Esta narrativa también afecta a la regulación: “En EEUU se ha renunciado a regular la IA porque se piensa que la IAG está cerca, y en Europa ha tenido un impacto, aparentemente, en la relajación de la AI Act”, afirma Marcus. Además, distrae la atención, poniendo el foco del debate en la posibilidad de una IA general, en lugar de en “los daños que la IA está causando actualmente y que no se están abordando”, añade.

Sesgos, desinformación y ‘copyright’

Entre esos daños, destaca los sesgos humanos que los sistemas de IA perpetúan, y que tienden a perjudicar, por ejemplo, a las personas que no son hombres blancos, señala. Apunta a los riesgos de su uso en áreas sensibles como procesos de selección, y a la falta de transparencia y acceso a los datos de entrenamiento necesarias para tratar de corregirlo.

Marcus y una lista de prominentes académicos han firmado recientemente una carta afirmando “el consenso científico de que la IA puede exacerbar el sesgo y la discriminación en la sociedad, y que los gobiernos deben implementar medidas de protección y gobernanza adecuadas para identificar y mitigar estos daños”.

A la discriminación se unen los problemas de privacidad, copyright y uso ilegítimo de datos. Las big tech y otras empresas de IA generativa se enfrentan a diversas demandas -particulares y colectivas- por usar una vasta cantidad de contenido de escritores, periodistas y medios de comunicación, locutores, artistas, programadores y un largo etcétera. Incluidos, también, investigadores como él.

“Una investigación reciente reveló que Meta utilizó millones libros y artículos pirateados para entrenar su último modelo de IA, a sabiendas, sin pedir permiso ni retribuir a cambio”, señala el científico.

Gracias a un buscador habilitado por The Atlantic, Marcus ha descubierto que la base de datos de entrenamiento de la IA del modelo de IA Llama 3 incluía 101 trabajos suyos.

El experto cree que esto tendrá serias consecuencias legales para Meta cuando llegue a juicio: “Sabían que lo que hacían probablemente era ilegal -por lo que revelan sus memorandos internos- y siguieron haciéndolo después de que artistas, escritores y editoriales les pidieran parar. Además, ocultaron ciertos documentos. A los jurados no les gustan este tipo de cosas”, observa.

Otra de las grandes preocupaciones de Marcus es la desinformación: no solo la generada por la IA, sino también la propaganda en redes sociales por determinados personajes ”que usan estas plataformas para impulsar ciertas agendas políticas”. Reconoce que todo lo que está sucediendo en EE.UU con el cambio político le está “perturbando”.

Cree que la desinformación ha jugado un papel importante, y es algo sobre lo que reflexiona con frecuencia. “A veces me dicen que escriba solo de IA y no de política, pero es imposible separarlas. Toda la IA se ha vuelto política”, señala.

“Suicidio intelectual”

Marcus es estadounidense, pero se mudó a Canadá con su familia durante el primer mandato de Donald Trump, en 2019. Le duele ver las decisiones que está tomando su gobierno. Entre otras, los por los recortes de financiación y las restricciones ideológicas lideradas por Elon Musk, que afectan a la comunidad académica.

A las de decenas de miles de millones de dólares en fondos para investigación congelados y a los miles de despidos, se suman “unas restricciones orwellianas a la investigación, incluyendo la prohibición de estudios que mencionen palabras específicas relacionadas con sexo y género, raza, discapacidad y otras características protegidas”, tal y como denuncia la revista 'Nature'.

“EEUU ha cometido un suicidio intelectual”, sostiene Marcus. “Más que un tiro en el pie, es un tiro en la cabeza”, añade. Acusa a Trump de desguazar “el que ha sido el principal centro de investigación del mundo”.

“Han convertido las universidades en un lugar desagradable. Es terrible para Estados Unidos”, opina. Cree que los efectos negativos durarán décadas. “Es mucho más fácil destruir algo que reconstruirlo”, afirma.

“Eso crea una oportunidad para el resto del mundo”, señala Marcus. Estados que ahora podrán conseguir científicos de primer nivel, que tratarán de abandonar EEUU. Europa ya se está movilizando. Varios países -entre ellos España- han pedido a la Unión Europea inversión en programas que incentiven la atracción del talento que quiera salir de EE.UU, y la Comisión Europea se prepara para ello.

Además, varias universidades están ya reclutando activamente a investigadores estadounidenses afectados por los recortes de la administración Trump, como la Universidad Libre de Bruselas (Bélgica) o la Universidad de Aix-Marsella (Francia).

Como un medicamento

Pese a todo, Marcus no desiste. En su libro 'Taming Silicon Valley', propone once exigencias “no negociables si queremos alcanzar un mundo de IA en el que podamos confiar”. Quizás la más importante -dice- sea contar con un sistema similar al que la FDA (la agencia estadounidense del medicamento) ha tenido para los fármacos, donde antes de lanzar un modelo, debería haber expertos externos para probarlo y determinar si es seguro y si los beneficios superan los riesgos.

Su segunda exigencia prioritaria es contar con mecanismos que permitan a expertos externos auditar los sistemas de IA que se lanzan, para evaluar qué daños podrían estar causando. También enfatiza la importancia de la transparencia (entre otras, de los datos usados para entrenar los modelos de IA).

Otro peso pesado son los programas de alfabetización en IA, tanto en las organizaciones como en las escuelas, e iniciativas públicas más amplias para garantizar una comprensión generalizada de la IA: para niños y para adultos. Aboga por una educación en IA atractiva, centrada en lo que la IA pueden y no puede hacer, cómo usarla de forma efectiva, cómo verificar los datos, cómo detectar sesgos, cuáles son nuestros derechos legales si nos perjudica…

“Si todos queremos vivir en un mundo inmerso en la IA, debemos ser sistemáticos en la alfabetización en IA. Necesitamos la alfabetización en IA tanto como la alfabetización mediática, la alfabetización matemática y la formación en pensamiento crítico”, escribe el experto en su libro.

Además, la lista de recomendaciones de Marcus incluye también reestructurar las prioridades de investigación, y diversificar más allá de la IA generativa. ¿Y cómo evitar que un pequeño grupo de multimillonarios decida nuestro futuro colectivo? Marcus responde tajante: "El boicot es probablemente lo único que marcará la diferencia”. O eso, o nos dirigimos hacia una especie de totalitarismo tecnológico.

Para terminar, Marcus ofrece una advertencia a las empresas: "No crean todo el bombo. Decidan por sí mismas cuál de estos sistemas es lo suficientemente fiables para los problemas de su negocio. Pregúntense: ¿cuál es el coste de equivocarse?” Recomienda no subirse al carro solo por seguir la corriente, porque las modas pasan.

El científico enfatiza que quiere ver la IA triunfar, pero no a toda costa. “Quiero que se haga mejor, de una manera moralmente justa”. Por ello, seguirá dando guerra contra el sensacionalismo, el alarmismo y el pensamiento mágico. Porque el escepticismo, en ciencia,  esuna virtud. Una virtud imprescindible que, en la fiebre actual por la IA, parece cada vez más escasa.