TECNO-VIRAL

El despido y retorno del CEO de OpenAI despiertan preocupaciones sobre una inteligencia artificial peligrosa

Opinando San Nicolás google news

En los recientes acontecimientos en OpenAI, la novela que rodea la partida y repentina vuelta del director ejecutivo, Sam Altman, ha revelado un trasfondo de inquietud entre los empleados de la compañía. Al parecer, la preocupación se centra en torno a una nueva inteligencia artificial (IA) llamada Q-Star, que algunos empleados temen podría convertirse en una amenaza para la humanidad.

Según una carta filtrada dirigida a la junta directiva, Altman planeaba lanzar esta IA al mercado sin una evaluación exhaustiva de sus posibles consecuencias. El proyecto en cuestión, denominado Q-Star, resulta ser el nombre de un ambicioso desarrollo destinado a crear una inteligencia artificial general (AGI), un objetivo central para OpenAI. La AGI, representada por Q-Star, superaría en capacidad y poder a GPT-4, el modelo que impulsa actualmente a ChatGPT.

Q-Star se presenta como un avance notable en el campo de la IA, ya que, según rumores, se basa en dos algoritmos clave: Q-learning, encargado del aprendizaje por refuerzo, y A*, diseñado para mejorar la eficiencia en la resolución de problemas anticipando obstáculos potenciales.

La capacidad de Q-Star para abordar problemas matemáticos, aunque por el momento se limita a cálculos relativamente simples, marca una diferencia sustancial respecto a las habilidades de ChatGPT. Mientras ChatGPT se destaca en tareas relacionadas con el lenguaje, Q-Star se posiciona como una herramienta más precisa y especializada en resolver ecuaciones matemáticas.

La carta interna de OpenAI, revelada por Reuters, plantea preguntas inquietantes sobre la posibilidad de que estas IA avanzadas tomen decisiones que podrían ser perjudiciales para la humanidad. Este debate se intensifica en medio del escándalo reciente en la compañía, generando cuestionamientos sobre la seguridad y ética en el desarrollo y lanzamiento de tecnologías de inteligencia artificial sin garantías de que no representen amenazas para la sociedad.

Artículos Relacionados

Volver al botón superior