OpenAI GPT-5 para lograr AGI en Diciembre

Se espera que OpenAI , un laboratorio de investigación de IA, lance la tecnología GPT-5 a finales de este año , lo que podría hacer que la IA generativa no se distinga de un ser humano. Según el empresario y desarrollador de tecnología Siqi Chen, GPT- 5 está programado para completar la capacitación en diciembre y OpenAI espera que alcance AGI ( Inteligencia general artificial ) . AGI es un tipo de IA que puede entender y razonar como un humano, y GPT-5 podría ser la primera IA en alcanzar este nivel de inteligencia. Con GPT-5, OpenAI podría revolucionar la industria de la IA y hacer que la IA sea indistinguible de los humanos.

Camino a la Inteligencia General Artificial

AGI es un tema muy debatido, ya que es difícil determinar si los sistemas de IA han alcanzado el mismo nivel de inteligencia que los humanos. AGI es un concepto importante en el campo de la IA, ya que podría conducir potencialmente al desarrollo de sistemas de IA que puedan pensar y actuar de forma independiente. AGI también podría tener un gran impacto en la forma en que los humanos interactúan con la tecnología, ya que los sistemas de inteligencia artificial podrían usarse para automatizar muchas tareas.

Click para ver MENSAJE en TWITTER

OpenAI lanzó recientemente su sistema GPT-4, un modelo de aprendizaje profundo que ha logrado un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales. El CTO de OpenAI, Greg Brockman, comentó recientemente que algunas personas en OpenAI creen que la actualización de GPT-5 podría conducir al logro de la Inteligencia General Artificial (AGI). Sin embargo, aclaró que no pretendía dar a entender que existe una creencia de consenso en OpenAI de que GPT-5 conducirá a AGI. Queda por ver si GPT-5 podrá lograr AGI, pero está claro que OpenAI está avanzando en el campo de la inteligencia artificial. Además del CEO de OpenAI, Sam Altman tuiteó las condiciones que se necesitan para el desarrollo de AGI, incluido un “marco regulatorio global” para gobernar democráticamente el desarrollo de la IA.

Ética de la investigación en IA

Más de 2000 líderes tecnológicos, incluidos Elon Musk y Steve Wozniak , firmaron una carta abierta en la que piden una pausa de seis meses en los sistemas de capacitación de laboratorios de IA más potentes que GPT-4. La carta advierte que los sistemas de IA con inteligencia a nivel humano pueden presentar serios riesgos para la sociedad y la humanidad. Los signatarios instan a los laboratorios de IA a que hagan una pausa y consideren las implicaciones de su trabajo antes de continuar. Creen que esta pausa le dará tiempo al mundo para desarrollar pautas y regulaciones éticas para garantizar que la IA se use de manera responsable.

OpenAI enfrenta críticas de sus propios empleados por su decisión de permitir que las máquinas inunden los canales de información con propaganda y falsedades. Los empleados del laboratorio también están preocupados por la posibilidad de que la automatización elimine trabajos, incluidos aquellos que son satisfactorios. OpenAI aún no ha respondido a las críticas, que se expresaron en una carta de sus empleados. La carta plantea preguntas importantes sobre las implicaciones éticas de la inteligencia artificial y el potencial de la automatización para eliminar puestos de trabajo. A medida que los sistemas de IA se vuelven cada vez más competitivos para los humanos, es esencial considerar las posibles consecuencias de permitir que las máquinas controlen nuestros canales de información y automaticen los trabajos.

En el lado opuesto, algunos critican la efectividad de “limitar la investigación de IA”. Líderes tecnológicos como Bill Gates han salido a decir que

La competencia está en el horizonte

OpenAI no es la única empresa que supera los límites de la investigación de inteligencia artificial generativa. Recientemente, las opciones de código abierto han ganado terreno con proyectos como Vicuña-13B . Este modelo, que solo requiere $300 para entrenar, logra un asombroso 90 % de la calidad de ChatGPT. Ha sido objeto de ajustes a través de LLaMA de Facebook y de conversaciones integradas aún más compartidas por los usuarios provenientes de ShareGPT.

Con el lanzamiento, los pesos del modelo se han vuelto de libre acceso para el público, aumentando la anticipación entre las empresas y las personas ansiosas por capitalizar la tecnología de vanguardia en aplicaciones de procesamiento de lenguaje natural. Utilizando GPT-4 como juez, las evaluaciones preliminares revelan que Vicuna-13B alcanza más del 90 %* de la calidad exhibida por ‘ChatGPT’ de OpenAI y ‘Bard’ de Google. Además, Vicuña-13B supera a otros modelos como LLaMA y Stanford Alpaca en más del 90%* de los casos.

Este nivel de rendimiento está a la par, si no es que es superior, a otros modelos de código abierto como Stanford Alpaca, un fragmento de datos que ha generado un interés considerable dentro del sector del procesamiento del lenguaje natural, especialmente entre las empresas que esperan aprovechar las innovaciones más recientes de la IA.

Las audaces afirmaciones de los investigadores sobre la capacidad de procesamiento del lenguaje natural de Vicuna-13B han despertado entusiasmo en cuanto a cómo le irá frente a modelos de la competencia como ChatGPT. A pesar de sus puntos en común, Vicuna-13B presenta notables capacidades de personalización y eficiencia, consolidando su posición como un competidor formidable en el ámbito de la PNL.

Fuentes : https://boxmining.com/openai-gpt-5-to-achieve-agi-in-december/

https://www.digitaltrends.com/computing/gpt-5-rumors-news-release-date/

[DISPLAY_ULTIMATE_SOCIAL_ICONS]