Grandes empresas tecnológicas se comprometen a hacer la inteligencia artificial más segura y transparente
Este viernes, Estados Unidos anunció que siete destacadas empresas tecnológicas han aceptado voluntariamente una serie de compromisos para promover el desarrollo de la inteligencia artificial (IA) de manera más “segura y transparente”.
Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, todas líderes estadounidenses en esta tecnología, se han comprometido especialmente a trabajar en sistemas de marcado de contenidos creados con IA para reducir los riesgos de fraude y desinformación.
Leer también: La carrera por dominar el mercado de microchips para IA impulsa a las grandes empresas tecnológicas
Estas compañías se comprometen a probar interna y externamente sus programas informáticos antes de su lanzamiento, invertir en ciberseguridad y compartir información relevante sobre sus herramientas con autoridades e investigadores, incluyendo posibles fallos.
Además, deberán desarrollar técnicas sólidas para que los usuarios puedan identificar cuándo el contenido ha sido generado por IA, como un sistema de marca de agua. Esto permitirá que la creatividad relacionada con la IA florezca al tiempo que se reducen los riesgos de fraudes o engaños.
La preocupación por las olas de desinformación, impulsadas por fotografías y videos falsos, incluidos los deepfakes, ha aumentado con el fácil acceso a herramientas de inteligencia artificial generativa. En este contexto, agregar marcas de agua a los contenidos creados con IA se ha convertido en un tema complejo para las principales empresas involucradas.
A pesar de las tensiones políticas en el Congreso, Estados Unidos ha destacado el “deber moral” de las empresas de IA de garantizar la seguridad de sus productos. Aunque es poco probable que se legisle sobre IA de manera inmediata, el gobierno está trabajando en un posible decreto ejecutivo.
A nivel internacional, Estados Unidos está en conversaciones con sus aliados para extender estos “compromisos voluntarios” de las empresas tecnológicas hacia un marco legal internacional. Estos temas ya fueron discutidos en la pasada reunión del G7 en Hiroshima, Japón, donde se encomendó a sus ministros establecer el Proceso de Hiroshima sobre IA. Este proceso consiste en la creación de un grupo conjunto de trabajo entre el G7, la Organización para la Cooperación y el Desarrollo en Europa (OCDE) y la Alianza Global sobre Inteligencia Artificial (GPAI) para abordar cuestiones cruciales sobre la aplicación de la tecnología, incluyendo la gobernanza, los derechos de propiedad intelectual, la transparencia y la respuesta a la manipulación de la información y la desinformación, buscando así una utilización responsable de la inteligencia artificial.
LEER: Accidente de tránsito en Ruta 188 y Montiel