Ante las posibles amenazas, como el fraude y la propagación de información falsa, que plantea la expansión de generadores de lenguaje impulsados por inteligencia artificial, como ChatGPT, los reguladores del Reino Unido y los Estados Unidos están cada vez más bajo presión para precisar si el uso de ChatGPT es seguro.
Estas preocupaciones sobre el uso de estas herramientas se han expandido. El mes pasado, una carta firmada por casi 30 mil signatarios, entre ellos el CEO de Tesla Inc., Elon Musk, instaba a una pausa inmediata en la creación de IA para evaluar sus efectos y asegurar que los riesgos fueran manejables, según The Guardian.
La carrera por la IA
La Autoridad de Mercados y Competencia de Reino Unido (CMA) anunció a principios de mayo que analizaría los sistemas subyacentes o modelos básicos detrás de las herramientas de IA. La revisión inicial, descrita por un experto legal como una «advertencia previa» al sector, publicará sus hallazgos en septiembre.
Sin embargo, la revisión del Reino Unido coincidió con el anuncio por parte del gobierno de EE. UU. de medidas para abordar los riesgos asociados con el desarrollo de la IA. Durante una reunión con los principales directores ejecutivos de la industria, la vicepresidenta Kamala Harris destacó que las empresas responsables de la creación de esta tecnología tenían una «responsabilidad fundamental» de garantizar la seguridad de sus productos antes de implementarlos o hacerlos públicos.
Antes de la reunión con la vicepresidenta Harris, varios científicos y líderes empresariales emitieron advertencias sobre la rapidez con la que la tecnología podría causar disrupciones en industrias establecidas. Entre ellos se encontraba Geoffrey Hinton, conocido como el «padrino de la IA», quien renunció recientemente a su trabajo en Google para poder hablar con más libertad sobre los peligros de esta tecnología.
¿ChatGPT es seguro?
La decisión de Hinton de retirarse de la compañía y hablar sobre la tecnología llega en un momento en que un número creciente de legisladores, grupos de defensa y conocedores de la tecnología han hecho sonar las alarmas sobre el potencial de una nueva cosecha de chatbots potenciados por IA para difundir información errónea y desplazar empleos.
El director ejecutivo del CMA también mencionó que la IA irrumpió en la conciencia pública en los últimos meses, pero ha estado en nuestro radar durante algún tiempo. «Es crucial que los beneficios potenciales de esta tecnología transformadora sean fácilmente accesibles para las empresas y los consumidores del Reino Unido, mientras que las personas permanecen protegidas de problemas como información falsa o engañosa», enfatizó.
Lo cierto es que las últimas investigaciones de medios, como The Guardian, han señalado que ChatGPT y el servicio rival de Google, Bard, son propensos a entregar información falsa en respuesta a las indicaciones de los usuarios, mientras que se han expresado preocupaciones sobre las estafas de voz generadas por IA.
A través de la herramienta NewsGuard, un equipo de periodistas contra la desinformación mencionó esta semana que los chatbots que se hacían pasar por periodistas estaban ejecutando casi 50 sitios de contenido generados por IA.
Evalúan riesgos de ChatGPT
La revisión planteada por la CMA incluirá en su análisis cómo podrían evolucionar los mercados de modelos básicos, cuáles son las oportunidades y riesgos existentes para consumidores y competencia, y propondrá la formulación de principios rectores para regular la competencia y proteger a los consumidores.
Alex Haffner, socio de competencia en el bufete de abogados británico Fladgate, dijo: «Dado el rumbo de la regulación en este momento y el hecho de que la CMA está decidiendo dedicar recursos a esta área, su anuncio debe ser considerado como una advertencia previa sobre el desarrollo agresivo de programas de IA sin la debida supervisión».
«el sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos».
Kamala Harris, viceprecidenta de EE. UU.
Por su parte, la actual administración del presidente de EE. UU., Joe Biden, mencionó que invertiría $ 140 millones en siete nuevos institutos nacionales de investigación de IA, para buscar avances en inteligencia artificial que sean «éticos, confiables, responsables y que sirvan al bien público».
Los principales desarrolladores de IA también han acordado que sus sistemas se evalúen públicamente en la conferencia de ciberseguridad Defcon 31 de este año. Las empresas que aceptaron participar incluyen OpenAI, Google, Microsoft y Stability AI.
La revisión de ChatGPT necesita una revisión agresiva
Robert Weissman, presidente de la organización sin fines de lucro de derechos del consumidor Public Citizen, elogió el anuncio de la Casa Blanca como un «paso útil», pero dijo que se necesita una acción más agresiva. Weissman dijo que esto debería incluir una moratoria en el despliegue de nuevas tecnologías generativas de IA, el término para herramientas como ChatGPT.
«En este punto, las grandes empresas tecnológicas deben salvarse de sí mismas. Las empresas y sus principales desarrolladores de IA son muy conscientes de los riesgos que plantea la IA generativa. Pero están en una carrera armamentista competitiva y cada uno se cree incapaz de reducir la velocidad».
Robert Weissman, presidente de la organización sin fines de lucro de derechos del consumidor Public Citizen.
En conclusión, estas acciones demuestran que ChatGPT tiene grandes desafíos aún por resolver. Si bien las empresas y desarrolladores son conscientes de los principales riesgos que estos avances pueden conllevar para la humanidad, poco les importa en la carrera competitiva por liderar el avance y control de la IA.