ONU propone un pacto mundial que gestione el desarrollo de la IA
Creen necesario asegurar que tecnologías como ChatGPT o Bard estén bajo el control de humanos a los que se les puedan pedir cuentas.
EFE / N.E.
El secretario general de la Organización de las Naciones Unidas (ONU), António Guterres, propuso un pacto mundial para gestionar las tecnologías digitales, incluido el rápido avance de la inteligencia artificial (IA), que según advierte el organismo puede traer amenazas difíciles de controlar.
Guterres, que en 2021 puso sobre la mesa la idea de un Pacto Digital Mundial que ya abogaba por promover la regulación de la IA, detalló ayer en un documento de 30 páginas sus ideas para hacerlo.
La intención de la ONU es que gobiernos, sector privado y la sociedad civil adopten ese acuerdo en septiembre de 2024, en su llamada Cumbre del Futuro.
Aunque el Pacto Digital Mundial que propone Guterres es muy amplio, uno de sus ejes más destacados es el de la IA, sobre todo después del rápido avance que se ha visto en los últimos meses.
"Estamos empezando a darnos cuenta de la escala de su potencial disruptivo, tanto positivo como negativo, pero aún tenemos que unirnos para considerar los problemas y colaborar en la identificación de riesgos y formas ágiles de mitigarlos", explicó el diplomático portugués.
Guterres, en un discurso, destacó que recientemente se superó un "umbral digital, con el uso generalizado de IA generativa en la forma de ChatGPT y muchas otras aplicaciones", una tecnología que tendrá gran impacto, pero que no se sabe si será bueno.
"La perspectiva de un mayor progreso tecnológico ahora plantea a menudo más miedo que esperanza. Incluso los que han desarrollado IA y que se beneficiarían más de ella han expresado una profunda preocupación y pedido, incluso suplicado, acciones para su gobernanza", recalcó.
Con control humano
Guterres cree necesario asegurar que el diseño y uso de la IA sea transparente, seguro y que esté bajo control de humanos a los que se puedan pedir cuentas, así que apuesta por combinar guías y normas internacionales, marcos regulatorios nacionales y estándares técnicos para facilitar una gestión "ágil" de la tecnología.
Entre las acciones que plantea aparecen la puesta en marcha urgente de un trabajo de investigación junto a las empresas para asegurar que los sistemas de IA sean seguros y que se alineen con valores humanos o el establecimiento de un grupo asesor de alto nivel con expertos que se reúnan regularmente para abordar estas cuestiones.
Además, pidió a los gobiernos que pacten con la industria directrices que guíen el desarrollo de la IA o que lleguen a compromisos para reforzar la transparencia e incluir equipos de derechos humanos y ética en este trabajo.
Por último, llamó a considerar "prohibiciones al uso de aplicaciones de tecnología cuyo potencial o impacto no pueda justificarse bajo la ley internacional de derechos humanos", sin decir cuáles.
Hace años, Guterres viene advirtiendo por ejemplo del riesgo que plantean las armas autónomas, sistemas militares guiados por IA que pueden tomar sus propias decisiones al lanzar un ataque.
No a la desinformación
La Comisión Europea, en tanto, pidió a las grandes plataformas digitales que tomen medidas para evitar la diseminación de información o contenido falso en internet elaborado a través de la IA.
"La IA puede ser la fuerza de nuevas posibilidades para incrementar la eficiencia y crear expresiones creativas", dijo la vicepresidenta de la Comisión Europea para Valores y Transparencia, Verá Jourová. "Pero también debemos mencionar el potencial de consecuencias negativas para la sociedad respecto a la diseminación de desinformación", señaló, previo a reunirse con las 44 empresas que han firmado el código voluntario de buenas prácticas promovido por Bruselas para combatir la desinformación, del que se desmarcó Twitter.
Bruselas quiere que compañías como Microsoft o Google desarrollen "salvaguardas necesarias" para evitar que "actores malignos" usen sistemas como ChatGPT o Bard para crear textos, imágenes o voces falsas que "generen desinformación". También, busca que las empresas creen tecnologías que identifiquen este tipo de contenido, para que puedan aclarar a sus usuarios que los hizo un robot.