Las compañías más punteras en el ámbito de la IA acordaron ayer en Seúl «no desarrollar ni implementar modelos de IA si los riesgos a ellos solapados no pueden ser suficientemente mitigados».
La seguridad, a menudo tan ninguneada en la industria tecnológica, en una pieza absolutamente clave en el puzle de la inteligencia artificial (IA). Y en la Cumbre de Seguridad en IA, que se celebra desde ayer en Seúl (Corea del Sur), se volvió a hacer hincapié en el binomio (forzoso) que deben formar de manera absolutamente ineludible la IA y la seguridad. Al inicio de la cumbre, que Corea del Sur y Reino Unido organizan al alimón, las grandes empresas tecnológicas se comprometieron a garantizar la seguridad en el desarrollo de nuevas herramientas de inteligencia artificial.
Entre las compañías que ayer asumieron la responsabilidad de imbricar la seguridad en el ADN de la IA destacan grandes multinacionales como Google, Meta y Microsoft y también otras empresas que operan a escala local.
Las compañías más punteras en el ámbito de la IA, también aquellas radicadas en China y Emiratos Árabes Unidos, acordaron ayer en Seúl «no desarrollar ni implementar modelos de IA si los riesgos a ellos solapados no pueden ser suficientemente mitigados», tal y como anunció ayer el Gobierno de Reino Unido, coorganizador junto a Corea del Sur de la Cumbre de Seguridad en IA.
En una declaración conjunta emanada de esa cumbre se citan la seguridad, la innovación y la inclusión como las tres principales prioridades a la hora de discutir sobre las oportunidades y los desafíos que entrañan la IA. La inclusión debe garantizar, por ejemplo, que los beneficios que brotan del vientre de la inteligencia artificial sean compartidos por todos y no sean monopolizados por solo unos pocos.
Las empresas tecnológicas examinarán con lupa los riesgos solapados al desarrollo de la IA para velar por la seguridad de esta tecnología
La Cumbre de Seguridad en IA celebrada en Seúl dio asimismo lugar a un acuerdo entre diez países y la Unión Europea (UE) para lanzar conjuntamente una red internacional con el último objetivo de avanzar en la «ciencia de la seguridad en la IA».
El compromiso al que llegaron ayer en Seúl 16 empresas tecnológicas oriundas de Europa, Asia, Norteamérica y Oriente Medio para velar por un desarrollo seguro de la IA coincidió con la ratificación definitiva de la ley de inteligencia artificial de la UE, que se aplicará de forma progresiva en el viejo continente hasta el año 2026.
Las compañías que se adhirieron este martes en Seúl a ese compromiso publicarán (si no lo han hecho ya) sus propios marcos de seguridad en lo relativo al desarrollo de la IA. El objetivo es medir los riesgos solapados a los modelos avanzados de inteligencia artificial y analizar asimismo los peligros que entraña potencialmente un mal uso de esta tecnología.
«Es la primera vez en todo el mundo que empresas líderes en el ramo de la IA procedentes de tantos países se ponen de acuerdo para asumir idénticos compromisos en la seguridad de esta tecnología», subraya Rishi Sunak, primer ministro de Reino Unido.
La cumbre de Seúl echa anclas en la denominada Declaración de Bletchey, en la cual varios países se mostraron favorables a la cooperación en materia regulatoria de la inteligencia artificial en noviembre del año pasado.
Artículo publicado en marketingdirecto.com por Esther Lastra