TECNO-VIRAL

Google brinda recomendaciones de seguridad para el uso de IA a sus empleados

Google ha proporcionado a sus empleados una serie de recomendaciones para utilizar de manera segura la herramienta Bard, un chatbot de inteligencia artificial (IA) desarrollado por la compañía matriz Alphabet Inc. Estas advertencias también son aplicables a otras aplicaciones similares de la competencia, como ChatGPT.

La empresa ha instado urgentemente a sus trabajadores a no ingresar ningún tipo de información confidencial en estos chats basados en IA, según revelaciones de la propia compañía, informó Reuters.

naranja X

Según un grupo de investigadores de la empresa, la IA puede reproducir todos los datos que ha absorbido durante su entrenamiento, es decir, las interacciones que tiene con los usuarios del chatbot. Dado que hay desarrolladores humanos que pueden revisar esa información, esto va en contra de la política de protección de datos de Google.

Por esta razón, Alphabet ha indicado a sus ingenieros que eviten el uso de fragmentos de código generados directamente por los chatbots como ChatGPT. Los chatbots, incluido Bard, son programas con apariencia humana que utilizan la llamada inteligencia artificial generativa para mantener conversaciones con los usuarios y responder a múltiples solicitudes.

Estas recomendaciones reflejan lo que está sucediendo en las grandes empresas tecnológicas, donde la aparición de estos sistemas ha impulsado la discusión sobre los nuevos estándares de seguridad que deben adoptarse. Además, Google busca aumentar la confianza y, por lo tanto, los beneficios comerciales derivados del uso de su chatbot. Según una encuesta realizada por Fishbowl a 12,000 personas en las principales empresas de Estados Unidos, aproximadamente el 43% de los profesionales utilizan con frecuencia ChatGPT u otras aplicaciones de IA sin informar a sus superiores.

Los chatbots de inteligencia artificial pueden usarse para redactar correos electrónicos, documentos e incluso código de programación, pero estos contenidos pueden contener errores e incluso información confidencial o protegida por derechos de autor. Como respuesta a esto, varias compañías han comenzado a lanzar soluciones de pago para que sus clientes puedan asegurar sus datos y evitar que terminen en modelos de IA públicos.

LEER: El tráiler de castración y vacunación estará en B° Villa María y B° Los Viñedos

Artículos relacionados

Volver al botón superior