OpenAI anuncia nuevo comité para garantizar seguridad en proyectos de IA y entrenamiento de GPT-5
OpenAI ha dado a conocer la formación de un comité dedicado a establecer directrices de seguridad para los puntos críticos relacionados con el desarrollo de sus proyectos de Inteligencia Artificial (IA). Esta iniciativa surge como respuesta a la creciente necesidad de asegurar la fiabilidad y seguridad en el avance de la IA. Además, la compañía ha hecho alusión a la próxima llegada de su siguiente modelo de IA, aunque sin especificar una fecha concreta.
En cuanto al tan esperado GPT-5, el modelo de lenguaje más avanzado de OpenAI, se ha revelado que el proceso de entrenamiento ya ha comenzado. Este nuevo modelo se perfila como un hito significativo en el camino hacia la Inteligencia Artificial General (IAG), superando las capacidades de sus predecesores. Sam Altman, director de OpenAI, ha destacado que cada iteración de los modelos GPT representa un avance notable en inteligencia, con expectativas de un progreso continuo en futuras versiones.
El término “modelo de frontera” hace referencia a una clase de modelos de aprendizaje automático a gran escala que sobrepasan las capacidades de los modelos existentes, mostrando una versatilidad notable en una amplia gama de tareas.
Altman señaló que con la llegada de GPT-5, el actual GPT-4 será considerado obsoleto en comparación. Esta evolución constante refleja la rápida progresión en el campo de la IA, donde cada nueva versión promete ser más inteligente y capaz que la anterior.
El proceso de entrenamiento y optimización de GPT-5 constituye una fase crucial antes de su lanzamiento, aunque la fecha de despliegue aún no ha sido confirmada. Se espera que antes del lanzamiento oficial, se realicen pruebas exhaustivas de seguridad, incluyendo el red teaming, para garantizar la confiabilidad y robustez del modelo de IA.
El anuncio de OpenAI coincide con la salida de Jan Leike, líder del equipo interno encargado de abordar los riesgos a largo plazo de la IA. Leike expresó su preocupación por la dirección tomada por los directivos de OpenAI, enfocándose más en los productos que en las cuestiones de seguridad y cultura interna. Esta partida ha llevado a una reflexión interna en OpenAI, y el nuevo comité de seguridad busca abordar estas inquietudes y fortalecer la confianza tanto dentro como fuera de la organización.
El comité estará compuesto por miembros de la junta directiva de OpenAI, así como expertos técnicos y de política, con el objetivo de garantizar una supervisión integral de los aspectos de seguridad en los proyectos de IA. Esta iniciativa demuestra el compromiso de OpenAI con la seguridad y la responsabilidad en el desarrollo de la IA, en un momento crucial para el avance de esta tecnología.
LEER: Allanamiento en San Nicolás por intento de robo en Arrecifes