viernes, 28 febrero, 2025
14.2 C
Rawson

Acelerar o frenar? Sigue la discusión por el ritmo de desarrollo de la inteligencia artificial

Si en el pasado la izquierda y la derecha fueron las visiones que polarizaron los debates políticos, una nueva dicotomía podría marcar la época y convertirse en una nueva división central del siglo XXI: la tensión entre aceleracionismo y desaceleracionismo; esto es, la que crece en torno a cuán rápido se debería avanzar tecnológicamente y quién debería tener el poder de regular el escenario de innovación tecnológica.

En 2022, un término (aceleracionismo efectivo) y su abreviatura (e/acc) comenzaron a circular en Internet representando un movimiento filosófico y tecnológico que promueve el avance acelerado y sin restricciones de la tecnología -especialmente de la inteligencia artificial (IA)- con el objetivo de abordar desafíos globales como la pobreza, la guerra y el cambio climático. El término fue conceptualizado por Guillaume Verdon, un exingeniero de computación cuántica y físico teórico canadiense que trabajó en Google y que bajo el seudónimo Beff Jezos en la red X, lidera el movimiento que cree que un progreso tecnológico sin restricciones es esencial para la evolución y supervivencia de la humanidad.

Aunque inicialmente fue un movimiento marginal, el e/acc ganó notoriedad en 2023 cuando figuras prominentes de Silicon Valley adaptaron públicamente su filosofía, como los inversores Marc Andreessen -quien publicó en 2023 El manifiesto tecnooptimista- y el CEO de Y Combinator, Garry Tan, incluso añadiendo “e/acc” a sus perfiles en redes sociales. Este respaldo contribuyó a que el aceleracionismo efectivo se convirtiera en una corriente influyente dentro de la comunidad tecnológica. De hecho, una búsqueda de la abreviatura “e/acc” en la red X muestra una gran cantidad de usuarios que la incluyen en su biografía y/o su nombre, a modo de insignia o de apoyo a una visión optimista de la tecnología en general y de la IA en particular. Incluso, una comunidad dentro de la red social se propone como dedicada a “acelerar el desarrollo tecnológico y mejorar la civilización”.

El Parlamento Europeo aprobó en 2024 la regulación europea sobre inteligencia artificial, la primera en el mundoJean-Francois Badias� – AP�

El e/acc se presenta como una respuesta al altruismo efectivo (EA, por sus siglas en inglés), un movimiento que promueve un enfoque cauteloso y ético en el desarrollo tecnológico. Mientras el EA enfatiza la necesidad de considerar los riesgos y las implicaciones éticas de la IA, el aceleracionismo efectivo aboga por una aceleración del progreso tecnológico, argumentando que cualquier intento de frenar la innovación podría obstaculizar soluciones potenciales a problemas globales.

Francis Felici, líder técnico en un proyecto de IA en Globant, cree que son épocas donde lo que abunda es la incertidumbre sobre el futuro de la IA. “Sin ir más lejos, dos de los padres de la IA moderna tienen una opinión diametralmente opuesta. Mientras que Geoffrey Hinton (considerado uno de los “padrinos” de la IA) piensa que esta tecnología implica un riesgo existencial para la humanidad; Yann LeCun (otro de los investigadores pioneros en IA) opina que se trata de un avance tecnológico que va a resolver nuestros problemas más urgentes y complejos”, enfatiza.

De hecho, esta dualidad respecto de la IA está presente en las personas. Según el informe Technowonder 2025 de Ipsos, mientras que más de la mitad de los argentinos, (exactamente el 52%) muestra entusiasmo por los productos y servicios impulsados por IA, un 47% admite sentir nerviosismo y una preocupación latente frente a las nuevas tecnologías.

Juan Corvalán, cofundador y director del Laboratorio de Innovación e Inteligencia Artificial, considera que muchas de las soluciones a los desafíos globales más apremiantes, desde el cambio climático hasta el tratamiento de enfermedades complejas, podrían surgir de avances en la IA. “Detener o ralentizar la innovación en este campo podría significar perder oportunidades cruciales para mejorar la calidad de vida y resolver problemas a escala global. La clave no reside en elegir entre aceleración descontrolada o desaceleracionismo, sino en encontrar un equilibrio dinámico y consciente”, resume.

Medio año después del debut de ChatGPT, Elon Musk y cientos de expertos mundiales firmaron en marzo de 2023 un llamado colectivo a hacer una pausa de seis meses en la investigación sobre inteligencias artificiales; seis meses después, el magnate formó su propia compañía de inteligencia artificial, xAIArchivo

A la vez, explica, los peligros de la automatización descontrolada podrían “exacerbar la desigualdad laboral, generando una brecha entre quienes dominan la IA y quienes no pueden reconvertirse a tiempo”. La IA “está commoditizando el conocimiento y eso hace que muchas tareas humanas pierdan valor agregado”, completa.

Otro riesgo -según señalan los expertos- es la falta de alfabetización generalizada en IA que se evidenció desde la llegada de ChatGPT, y sobre la capacidad de detectar qué es real y qué lo que fue creado por inteligencia artificial. Asimismo, la desinformación impulsada por IA podría socavar la confianza en los datos y las instituciones. “Sin embargo, estos riesgos no deben paralizarnos, sino impulsarnos a acelerar la alfabetización y la implementación de la IA de manera informada y responsable”, subraya Corvalán.

Para Felici, el debate sobre acelerar o desacelerar la IA tiene un supuesto clave: la posibilidad concreta de frenar el desarrollo de IA de forma uniforme y a lo largo del mundo. “No creo que esto sea posible -resalta- Creo que lo que podría ocurrir es que algunos grupos avancen cada vez más rápido en su desarrollo de IA, mientras que al mismo tiempo frenen o limiten al desarrollo de otros grupos. Esto ya está ocurriendo hoy, tanto entre empresas grandes y pequeñas como entre países (por ejemplo, restricciones por parte de EE.UU. a los chips que algunos países pueden comprar)”.

De hecho, el movimiento e/acc cree que los intentos por frenar la IA a menudo provienen de actores que buscan monopolizar su desarrollo, impidiendo el acceso abierto a la innovación.

César Requena, Applier Intelligence y Strategy Director en R/GA, explica que en el último tiempo vieron nacer proyectos open source o independientes que, frente a un escenario de desaceleración, serían los primeros en recibir el impacto, frenando sus posibilidades de desarrollo. “Sin embargo, los gigantes tecnológicos siempre van a encontrar una forma de seguir investigando y tienen los recursos necesarios para mantenerse. La IA representa una gran oportunidad para que nuevos jugadores ingresen en el mercado y sea posible democratizar esta tecnología”, destaca.

En coincidencia, Corvalán cree que en un contexto de evolución tecnológica acelerada el desaceleracionismo podría crear un vacío que sería aprovechado por grandes actores que se moverían lejos del escrutinio público. “Estos actores, posiblemente grandes corporaciones o estados, podrían acumular poder y ventajas competitivas significativas. Abrirse a la IA -como lo hace DeepSeek (la IA de origen chino considerada una de las principales competidoras de ChatGPT)- mitiga el efecto monopolizador de los grandes jugadores. Cuanto más abierto sea el desarrollo, menos posibilidades tenemos de que se monopolice”.

En la visión de Felici, una de las mejores formas de frenar un desarrollo tecnológico homogéneo es con lo que él denomina una “captura regulatoria” que tiene lugar -según explica- cuando un grupo de poder limita su presente y futura competencia al lograr regulaciones gubernamentales tan restrictivas que solo grandes grupos puedan sortear. “Este método no es nuevo, ocurrió muchas veces en la historia del desarrollo tecnológico”, puntualiza.

Desde gran parte de la comunidad tecnológica coinciden en que el equilibrio entre innovación y regulación no es algo estático, sino un proceso dinámico que requiere una agenda continua de adaptación y aprendizaje. “En lugar de establecer exigencias estrictas para todos los desarrolladores de IA, es preciso tener en cuenta que no podemos simplemente copiar modelos regulatorios como el europeo sin considerar las particularidades de nuestra región. En cambio, debemos identificar y regular casos de uso específicos que puedan ser de alto riesgo, como el reconocimiento facial masivo o la clonación digital de rostros, voces o cuerpos humanos. Es preciso abordar estos desafíos sobre la base del conocimiento profundo de la IA para aprovechar al máximo esta tecnología sin comprometer valores éticos y sociales fundamentales”, enfatiza Corvalán.

Desde R/GA subrayan que bajo una perspectiva ética y social, lo importante es aumentar los esfuerzos en formación, para conocer los alcances de la tecnología, cómo funciona y los posibles sesgos que trae aparejados. “Se trata de poner sobre la mesa las posibles problemáticas y entrenar un pensamiento crítico. Esto va a ayudarnos a tener una mirada más concreta y ética sobre el hecho de que poder hacer algo técnicamente, no significa que debamos hacerlo”, indica Requena.

Felici cree que ante la incertidumbre sobre el impacto futuro de la IA, lo aconsejable es aumentar las chances de que salga bien. “Para ello me parece clave evitar uno de los mayores riesgos que es la concentración extrema de poder por medio de una tecnología revolucionaria -reflexiona-. Nadie quiere vivir en un mundo tecnofeudal y para ello se necesitan regulaciones gubernamentales justas”.

Conforme a los criterios de

Más Noticias

Relacionadas