Las principales empresas de tecnología, incluidas Amazon, Microsoft, Google y OpenAI, en el marco de la Cumbre de Seguridad de la IA, se unieron en un acuerdo internacional histórico donde buscan garantizar la seguridad de la inteligencia artificial.

A su vez, diversos países como Estados Unidos, China, Reino Unido, Corea del Sur, Emiratos Árabes, entre otros, asumirán compromisos para garantizar el desarrollo de modelos seguros bajo esta tecnología.

Los acuerdos de empresas y países, incluyen “líneas rojas” para que las primeras definan los tipos de riesgos asociados con los sistemas de IA, los cuales engloban ataques cibernéticos y la amenaza de armas biológicas.

El “interruptor de emergencia” de la inteligencia artificial

Desde que ChatGPT se lanzó en noviembre de 2022, los reguladores y líderes tecnológicos manifestaron su preocupación sobre los riesgos que rodean a los sistemas avanzados de IA, capaces de generar texto o contenido visual a la par de las capacidades humanas.

Por ello, en el pacto se acordó que las empresas tendrán que implementar un “interruptor de apagado” para responder a circunstancias extremas. Éste detendría el desarrollo de los modelos en caso de que éstos pongan en riesgo a la humanidad.

Los compromisos se aplicarán únicamente a los llamados modelos de frontera, que se refiere a la tecnología detrás de los sistemas de inteligencia artificial generativa, como la familia GPT de modelos de lenguaje de OpenAI.

Es una primicia mundial que tantas empresas líderes en IA de tantas partes diferentes del mundo acuerden los mismos compromisos en materia de seguridad de la inteligencia artificial

dijo Rishi Sunat, primer ministro del Reino Unido

Con información de CNBC

También puedes leer:

Para más información, visita nuestro canal de YouTube