Un grupo de empresarios entre los que se encuentra Elon Musk firmó en marzo una carta una pausa de seis meses en el entrenamiento de los poderosos sistemas de inteligencia artificial con el debido a los riesgos potenciales que enfrentaría la humanidad. Los gobiernos buscan lanzar medidas para regularla y en Argentina su incorporación no está del todo clara. Los intereses detrás de está tecnología y su prohibición tienen tanto razones sociales como económicas. Los especialistas no se ponen de acuerdo.
Un par de semanas atrás, más de 1.300 personas, entre ellas magnates de la tecnología como Elon Musk, fundador de Tesla y SpaceX, el fundador de Apple, Steve Wozniak, y el historiador Yuval Noah Harari, se unieron para firmar una carta abierta que pide detener y regular el desarrollo e implementación de la IA. La argumentación se basa en los “profundos riesgos” que puede traer para la humanidad. Ahora, gobiernos como el de Alemania, Irlanda y España se han comprometido a investigar sus posibles consecuencias e incluso llegado a tomar medidas para frenar sus avances.
“La difusión masiva en estos últimos meses de los sistemas de generación textual como el Chat GPT relanzó el debate sobre la IA y sus peligros”, asegura el teórico de la comunicación, Carlos Scolari. En el debate señala: “Hay de todo, están quienes sostienen que la es un instrumento muy útil y fácil de utilizar y quienes tienen una mirada apocalíptica y no diferencian un software especializado para generar imágenes de una IA general como la mítica Skynet de Terminator. Estos últimos, por ahora están fuera del alcance de nuestro desarrollo tecnológico, aunque quizás -recalco lo de quizás- podrían estarlo en el futuro”, admite el teórico.
La carta no pide una pausa indeterminada, sino seis meses en los que se evalúe el desarrollo de herramientas de inteligencia artificial como la nueva versión del Chat GPT de la empresa OpenAL, un chatbot que se ha vuelto muy popular desde que se hizo público por primera vez en noviembre. ¿Sus motivos? asegurarse de que la tecnología “sea segura”.
Otra revolución
“Toda tecnología pasa por la carrera para llegar primero aunque no tengas el mejor producto desarrollado”, asegura Pablo Livsit, periodista especializado en IA. “El chat GPT fue un poco revolucionario y triunfó cuando otros modelos de otras empresas no lo hicieron”, explica. Como en toda carrera tecnológica, “los intereses económicos y políticos” están presentes todo el tiempo.
Este año, Bank of America, publicó un informe que aseguraba que la inteligencia artificial es una revolución comparable a la electricidad y que para el 2026 será un mercado que aportará 900 billones de dólares a la economía mundial, una cifra superior al PBI anual de la zona Euro en 2022.
Con estas cifras, es lógico dudar de los verdaderos motivos para frenar estos avances: “Las corporaciones y los Estados tienen diferentes intereses a la hora de regular o prohibir la IA”, explica Scolari. “A las empresas no les interesa mucho los riesgos para la privacidad y seguridad”.
Sin embargo, los firmantes de la carta justifican su petición como una pausa de la carrera peligrosa hacia modelos impredecibles “cada vez más grandes con capacidades emergentes”. No hay que olvidarse también de que Elon Musk, uno de los firmantes, fue cofundador de OpenAI. Aunque renunció hace algunos años y ha publicado mensajes críticos en Twitter sobre la empresa.
Por otro lado, la IA puede ser utilizada para recolectar y procesar grandes cantidades de datos personales, lo que genera preocupaciones acerca de la privacidad y seguridad de los usuarios. “Ahí donde los Estados están comenzando a moverse hacia la regulación”, señala el Scolari, pero a la vez afirma que “las corporaciones seguramente preferirían que no hubiera intervención”. Tal como sucedió en la primera fase de difusión de las “redes sociales” hace 20 años. Más allá de la “revolución” que trajo consigo este software, novedoso pero no nuevo, que se denomina “inteligencia artificial”, el impacto que puede generar (y está generando) es muy cambiante según el sector en el que se incorpore.
Los reguladores
Marcelo Rinesi, científico de datos y tecnólogo, señala un punto importante: “Hay muchos significados diferentes de ‘regulación’ con muchos actores diferentes con objetivos diferentes”.
“Hay tecnólogos o futuristas que temen una explosión de superinteligencia artificial que termine siendo un riesgo existencial y piden pausar investigación por razones de supervivencia de la especie”, dice Rinesi, aunque para él, es una visión muy errada sobre las capacidades y posibilidades de este tipo de software.
Por otro lado, están los y las economistas cuyas opiniones se ramifican: “Algunos temen el impacto en los salarios y cómo puede afectar a algunos empleos”, explica el tecnólogo. Después están los que temen que los costos tan elevados de esta tecnología generen un oligopolio, “no es sobre investigación o desarrollo sino sobre defensa de la competencia”.
Hay otro reclamo que no parece ser el más objetado ni entre los gobernantes ni los empresarios, sino entre los usuarios de este software: el bias, es decir, la discriminación que se sufre y los sesgos de la inteligencia artificial. “Una AI de recursos humanos tranquilamente puede ‘predecir’ que una mujer va a tener peor performance en un trabajo simplemente porque fue entrenada con datos históricos reflejando patrones de discriminación”. El reclamo es contrario a la queja fatalmente futurista: “No es ‘las AIs son demasiado inteligentes’ sino que son demasiado estúpidas”.
Una lucha repetida
Esta película ya se ha visto antes. La carrera tecnológica, la lucha entre distintos países y empresas por ser el primero, una batalla silenciosa. “Muchos pedidos de regulación o prohibición son versiones más nuevas de pedidos ya existentes que aplican a software en general”, explica Rinesi. Por ejemplo, el gobierno de Estados Unidos está empezando a preocuparse sobre el uso de IA en el monitoreo de empleados, “pero eso también aplica a cualquier otro tipo de software de monitoreo”. Lo mismo para protestas sobre el uso de AI en contextos militares o policiales: “El uso de este software ya existía y era criticado, esto es lo mismo sobre nuevas herramientas”, indica.
Lo mismo sucede con Tik Tok, la red social China, y Estados Unidos. Ante temores de espionaje por parte del gobierno chino, el Comité de Inversiones Extranjeras de Estados Unidos ha exigido al propietario de la plataforma que venda su participación en ella. Caso contrario, comenzarán a prohibirla en territorio norteamericano.
“La guerra tecnológica entre EEUU y China continúa en el contexto de la IA”, asegura Livsit. Pekín ha prohibido la entrada de Chat GPT en el país y ha apostado por desarrollar sus propias versiones que se ajusten a los ideales del Partido Comunista Chino. Empresas de este país como Alibaba, Baidu o Huawei se suman a la carrera por sacar modelos cada vez más avanzados de estos chatbots que coincidan con sus valores. “Hay un interés económico más que una preocupación en realidad. Una especie de guerra sin armas”.
¿Qué pasa en Argentina?
Alan Pezo, cofundador de HiringSpot, una herramienta digital que tiene como objetivo mejorar la experiencia del reclutador y del candidato a través de procesos de IA, cree que “hay empresarios que son muy beneficiados por la inteligencia artificial y hay otros que, por el contrario, son muy perjudicados”. Este software puede reemplazar trabajos o mejorar procesos de forma significativa a un costo bajo, “y muchos empresarios lo están notando, esto puede desencadenar en disminuir el valor de algunas empresas o proyectos enteros”.
Cory Doctorow, periodista y escritor tecnológico habla del criti-hype: críticas que en realidad le están dando más entidad a una tecnología o persona de la que tiene. “A un empresario de IA le encantaría decir que su software es ‘potencialmente riesgoso’, porque quiere decir que es potencialmente poderoso”, reflexiona Rinesi. “Hacer algo al borde de la superinteligencia con todos sus peligros es mucho mejor para el ego que hacer algo que se autocomplete y que sea muy pero muy bueno.”
“En Argentina lo veo muy difícil y no porque seamos un país atrasado en la tecnología”, dice Pezo y explica, aún así, el país está “muy retrasado” en cuanto a las regulaciones. Rinesi, sin embargo, ve el mercado tecnológico argentino “demasiado chico como para que la opinión del Estado le sea relevante a ninguno de los actores grandes. Somos un estado que tiene entre sus pocas políticas de largo plazo el hacer pasar las importaciones de computadoras a través de un “polo tecnológico” que es poco más que una ensambladora cara” y asegura que “no está ni listo para aprovechar y optimizar IA”.