El ex científico jefe de OpenAI y actual cofundador de SSI, Ilya Sutskever, habló en una reciente entrevista sobre cómo los modelos de IA prácticamente son invencibles en diversas pruebas, evaluaciones y competiciones, pero la vida cotidiana de la mayoría de las personas no ha cambiado drásticamente. Él cree que esta discrepancia de “superioridad en pruebas de evaluación, experiencia ordinaria” proviene de la dependencia excesiva de la industria en los últimos años del exitoso fórmula de “acumular potencia computacional, acumular datos y acumular parámetros de modelo”. Sin embargo, los recursos lingüísticos naturales disponibles para el preentrenamiento son limitados, y este enfoque eventualmente encontrará un punto de estrangulamiento. El próximo desarrollo de la IA entrará en una nueva fase, donde ya no se tratará de quién tiene más GPU, sino de quién puede encontrar nuevos principios de aprendizaje, entender la generalización y hacer que la forma en que la IA aprende se asemeje más a la de los humanos.
La trama de ciencia ficción está sucediendo, pero la vida no ha cambiado mucho.
En la apertura de la entrevista, el presentador describió el desarrollo actual de la IA y la atmósfera de toda el área de la bahía de San Francisco, que es completamente como la trama de una novela de ciencia ficción. Sin embargo, la contradicción es que, a pesar de que la inversión global en IA asciende fácilmente a decenas de miles de millones o incluso cientos de miles de millones de dólares, y se aproxima al 1% del PIB de los países, la percepción de la vida cotidiana de la gente común no ha cambiado drásticamente.
La mayoría de las personas solo ven en las noticias a los gigantes tecnológicos anunciar la expansión de centros de datos o gastar un presupuesto adicional en la compra de GPU, pero desde las calles hasta los rincones, los cambios evidentes en la IA siguen siendo bastante limitados.
Sutskever aceptó esta afirmación y señaló que la capacidad del modelo es, de hecho, poderosa, pero en el entorno de vida familiar de las personas, la experiencia no será tan impactante como en un laboratorio o en un informe de investigación; esta discrepancia es, de hecho, un fenómeno normal.
La capacidad de evaluación es extremadamente fuerte, pero el rendimiento práctico a menudo presenta problemas.
Sutskever luego habló sobre el “doble enfoque” del modelo. Él indicó que la IA a menudo puede mostrar niveles que superan a los humanos en evaluaciones de programas, pruebas estandarizadas o varios benchmarks, pero una vez que se enfrenta a necesidades reales, se encuentra con situaciones completamente diferentes. Puso como ejemplo que muchos desarrolladores piden al modelo que ayude a corregir errores. El modelo suele señalar problemas y ofrecer modificaciones con mucha confianza, pero el siguiente paso a menudo introduce nuevos errores.
Cuando le pides que corrija el segundo error, podría volver a introducir el primer bug, creando un ciclo entre los dos errores. Sutskever cree que esta contradicción de ser “sobrehumano en las evaluaciones, pero inestable en el mundo real” es uno de los fenómenos de IA que más vale la pena entender en profundidad en la actualidad.
Para probar el entrenamiento, lo que provoca que el modelo se desvíe de la realidad.
Al analizar las razones de la discrepancia, Sutskever señala que las principales empresas a menudo ajustan el comportamiento del modelo en función de los proyectos de evaluación pública cuando realizan aprendizaje reforzado. Porque mientras se destaquen en la evaluación, pueden obtener ventajas en conferencias de lanzamiento, presentaciones de inversión y comparaciones técnicas. Esto también hace que el modelo sea increíblemente potente en esos escenarios de prueba, pero al enfrentarse a situaciones del mundo real que cambian constantemente, no puede mostrar la misma capacidad.
Él hace una analogía con las competiciones de programación. Un competidor que se ha estado entrenando durante 10,000 horas para ganar el campeonato ciertamente puede obtener resultados sorprendentes en la competencia. Otro que solo ha practicado 100 horas, pero que tiene una forma innata de entender los problemas, podría ser más capaz de adaptarse a largo plazo en su carrera. El modelo actualmente es como el primero:
“Altamente entrenado, extremadamente fuerte en tareas fijas, pero carece de la capacidad de generalización profunda al estilo humano.”
La tendencia de expansión de modelos está en auge, y el espacio de investigación se ha reducido drásticamente.
Sutskever revisa que el período de 2012 a 2020 se puede considerar como la “época dorada de la investigación” en IA, donde diversos sectores exploraron activamente diferentes arquitecturas y métodos, y muchos avances provinieron de diversas ideas innovadoras. Sin embargo, el éxito de GPT-3 y la ley de escalabilidad de los modelos cambiaron por completo la dirección. Desde entonces, toda la industria ha ido formando un consenso:
“Aumenta el modelo, multiplica los datos y agrega potencia computacional, la capacidad naturalmente aumentará.”
Esta ruta basada en fórmulas se ha convertido en la corriente principal del mercado de inversiones y de grandes empresas debido a su bajo riesgo y resultados predecibles. Sin embargo, también porque todos utilizan la misma estrategia, el verdadero espacio para la investigación se ha reducido.
Los datos naturales son limitados, el preentrenamiento eventualmente encontrará obstáculos.
Sutskever enfatizó que el corpus natural en línea es limitado, y lo que se necesita para entrenar modelos de lenguaje grandes son estos textos. Después de años de expansión, las empresas ya están cerca de haber “utilizado al máximo” todo el corpus disponible. Cuando la cantidad de datos ya no puede duplicarse, el aumento del rendimiento únicamente mediante la ampliación del modelo y la Potencia computacional se desacelerará claramente.
Él cree que esto representa que la IA está a punto de entrar en una nueva fase, no solo persiguiendo modelos más grandes, sino que es necesario reentender cómo aprenden los humanos, cómo se forma la generalización, si los modelos pueden auto-corrigirse con menos muestras y si durante el proceso de aprendizaje pueden tener la capacidad de evaluación intermedia como los humanos, en lugar de depender únicamente de la retroalimentación final para decidir la dirección del comportamiento.
Estas cuestiones no se pueden resolver simplemente con la cantidad de GPU, sino que requieren una verdadera investigación científica.
(Nota: Pre-Entrenamiento, se refiere a permitir que el modelo lea una gran cantidad de textos en línea, aprendiendo así la estructura del lenguaje y conocimientos básicos, formando la base para las habilidades posteriores. Los principales modelos grandes utilizan el pre-entrenamiento como la primera etapa. )
El aprendizaje reforzado ha llevado a una explosión de potencia computacional, y la eficiencia es incluso menor de lo que se imaginaba.
Sutskever también mencionó que en los últimos años, muchas empresas han alcanzado escalas de entrenamiento de refuerzo (RL) que incluso superan el preentrenamiento. Estas inferencias de largas secuencias consumen una gran cantidad de potencia computacional, pero el aprendizaje efectivo que resulta de cada inferencia es en realidad limitado, lo que reduce la eficiencia general. Si continuamos dependiendo de la misma forma de entrenamiento, solo se invertirán más recursos, pero será difícil superar los límites intrínsecos del modelo.
Por lo tanto, él cree que la industria de la IA está regresando gradualmente a la etapa de investigación de “buscar nuevos métodos”, donde el enfoque ya no es quién tiene el mayor centro de datos, sino quién puede encontrar nuevos principios de aprendizaje.
(Nota: Aprendizaje por refuerzo, que significa permitir que el modelo crezca a través de un método de entrenamiento basado en prueba y error. Después de completar una tarea, el modelo recibe retroalimentación o recompensas y ajusta su comportamiento en consecuencia. )
Enfócate en entender y aprender, el modelo de negocio se discutirá después.
Sutskever afirmó que la estrategia de SSI es centrarse en la investigación, especialmente en entender la generalización, el aprendizaje humano y cómo los modelos pueden mejorar por sí mismos con pocas demostraciones. Considera que en lugar de apresurarse a responder sobre el modelo de negocio, es mejor concentrarse en encontrar una arquitectura de aprendizaje más fundamental que el preentrenamiento; una vez que se produzca un avance, diversas aplicaciones comerciales comenzarán a surgir.
Él estima que en los próximos 5 a 20 años, habrá la oportunidad de crear una IA cuya “eficiencia de aprendizaje sea comparable a la humana”. Una vez que las máquinas puedan dominar nuevas habilidades tan rápidamente como los humanos, y se desplieguen a gran escala, la capacidad general mostrará un crecimiento exponencial, acercándose a la superinteligencia.
La brecha entre la evaluación y la utilidad desaparecerá con la aparición de nuevos métodos de aprendizaje.
Sutskever finalmente señaló que la razón por la cual la revolución de la IA actual no parece ser tan drástica es porque todavía existe una clara desconexión entre la capacidad del modelo y la forma en que se utiliza. Cuando los modelos evolucionen de ser capaces de realizar exámenes a ser capaces de aprender, autocorregirse, generalizar continuamente y crecer de manera estable, la IA transformará la vida global a una velocidad extremadamente rápida.
Para entonces, las personas no solo verán grandes inversiones en las noticias, sino que realmente sentirán el cambio en su vida diaria.
Este artículo de un ex-científico de OpenAI: la potencia computacional ha alcanzado su límite, la industria de la IA debe regresar al núcleo de la investigación. Apareció por primera vez en Chain News ABMedia.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Anterior científico de OpenAI: la potencia computacional ha alcanzado su límite, la industria de la IA debe regresar al núcleo de la investigación
El ex científico jefe de OpenAI y actual cofundador de SSI, Ilya Sutskever, habló en una reciente entrevista sobre cómo los modelos de IA prácticamente son invencibles en diversas pruebas, evaluaciones y competiciones, pero la vida cotidiana de la mayoría de las personas no ha cambiado drásticamente. Él cree que esta discrepancia de “superioridad en pruebas de evaluación, experiencia ordinaria” proviene de la dependencia excesiva de la industria en los últimos años del exitoso fórmula de “acumular potencia computacional, acumular datos y acumular parámetros de modelo”. Sin embargo, los recursos lingüísticos naturales disponibles para el preentrenamiento son limitados, y este enfoque eventualmente encontrará un punto de estrangulamiento. El próximo desarrollo de la IA entrará en una nueva fase, donde ya no se tratará de quién tiene más GPU, sino de quién puede encontrar nuevos principios de aprendizaje, entender la generalización y hacer que la forma en que la IA aprende se asemeje más a la de los humanos.
La trama de ciencia ficción está sucediendo, pero la vida no ha cambiado mucho.
En la apertura de la entrevista, el presentador describió el desarrollo actual de la IA y la atmósfera de toda el área de la bahía de San Francisco, que es completamente como la trama de una novela de ciencia ficción. Sin embargo, la contradicción es que, a pesar de que la inversión global en IA asciende fácilmente a decenas de miles de millones o incluso cientos de miles de millones de dólares, y se aproxima al 1% del PIB de los países, la percepción de la vida cotidiana de la gente común no ha cambiado drásticamente.
La mayoría de las personas solo ven en las noticias a los gigantes tecnológicos anunciar la expansión de centros de datos o gastar un presupuesto adicional en la compra de GPU, pero desde las calles hasta los rincones, los cambios evidentes en la IA siguen siendo bastante limitados.
Sutskever aceptó esta afirmación y señaló que la capacidad del modelo es, de hecho, poderosa, pero en el entorno de vida familiar de las personas, la experiencia no será tan impactante como en un laboratorio o en un informe de investigación; esta discrepancia es, de hecho, un fenómeno normal.
La capacidad de evaluación es extremadamente fuerte, pero el rendimiento práctico a menudo presenta problemas.
Sutskever luego habló sobre el “doble enfoque” del modelo. Él indicó que la IA a menudo puede mostrar niveles que superan a los humanos en evaluaciones de programas, pruebas estandarizadas o varios benchmarks, pero una vez que se enfrenta a necesidades reales, se encuentra con situaciones completamente diferentes. Puso como ejemplo que muchos desarrolladores piden al modelo que ayude a corregir errores. El modelo suele señalar problemas y ofrecer modificaciones con mucha confianza, pero el siguiente paso a menudo introduce nuevos errores.
Cuando le pides que corrija el segundo error, podría volver a introducir el primer bug, creando un ciclo entre los dos errores. Sutskever cree que esta contradicción de ser “sobrehumano en las evaluaciones, pero inestable en el mundo real” es uno de los fenómenos de IA que más vale la pena entender en profundidad en la actualidad.
Para probar el entrenamiento, lo que provoca que el modelo se desvíe de la realidad.
Al analizar las razones de la discrepancia, Sutskever señala que las principales empresas a menudo ajustan el comportamiento del modelo en función de los proyectos de evaluación pública cuando realizan aprendizaje reforzado. Porque mientras se destaquen en la evaluación, pueden obtener ventajas en conferencias de lanzamiento, presentaciones de inversión y comparaciones técnicas. Esto también hace que el modelo sea increíblemente potente en esos escenarios de prueba, pero al enfrentarse a situaciones del mundo real que cambian constantemente, no puede mostrar la misma capacidad.
Él hace una analogía con las competiciones de programación. Un competidor que se ha estado entrenando durante 10,000 horas para ganar el campeonato ciertamente puede obtener resultados sorprendentes en la competencia. Otro que solo ha practicado 100 horas, pero que tiene una forma innata de entender los problemas, podría ser más capaz de adaptarse a largo plazo en su carrera. El modelo actualmente es como el primero:
“Altamente entrenado, extremadamente fuerte en tareas fijas, pero carece de la capacidad de generalización profunda al estilo humano.”
La tendencia de expansión de modelos está en auge, y el espacio de investigación se ha reducido drásticamente.
Sutskever revisa que el período de 2012 a 2020 se puede considerar como la “época dorada de la investigación” en IA, donde diversos sectores exploraron activamente diferentes arquitecturas y métodos, y muchos avances provinieron de diversas ideas innovadoras. Sin embargo, el éxito de GPT-3 y la ley de escalabilidad de los modelos cambiaron por completo la dirección. Desde entonces, toda la industria ha ido formando un consenso:
“Aumenta el modelo, multiplica los datos y agrega potencia computacional, la capacidad naturalmente aumentará.”
Esta ruta basada en fórmulas se ha convertido en la corriente principal del mercado de inversiones y de grandes empresas debido a su bajo riesgo y resultados predecibles. Sin embargo, también porque todos utilizan la misma estrategia, el verdadero espacio para la investigación se ha reducido.
Los datos naturales son limitados, el preentrenamiento eventualmente encontrará obstáculos.
Sutskever enfatizó que el corpus natural en línea es limitado, y lo que se necesita para entrenar modelos de lenguaje grandes son estos textos. Después de años de expansión, las empresas ya están cerca de haber “utilizado al máximo” todo el corpus disponible. Cuando la cantidad de datos ya no puede duplicarse, el aumento del rendimiento únicamente mediante la ampliación del modelo y la Potencia computacional se desacelerará claramente.
Él cree que esto representa que la IA está a punto de entrar en una nueva fase, no solo persiguiendo modelos más grandes, sino que es necesario reentender cómo aprenden los humanos, cómo se forma la generalización, si los modelos pueden auto-corrigirse con menos muestras y si durante el proceso de aprendizaje pueden tener la capacidad de evaluación intermedia como los humanos, en lugar de depender únicamente de la retroalimentación final para decidir la dirección del comportamiento.
Estas cuestiones no se pueden resolver simplemente con la cantidad de GPU, sino que requieren una verdadera investigación científica.
(Nota: Pre-Entrenamiento, se refiere a permitir que el modelo lea una gran cantidad de textos en línea, aprendiendo así la estructura del lenguaje y conocimientos básicos, formando la base para las habilidades posteriores. Los principales modelos grandes utilizan el pre-entrenamiento como la primera etapa. )
El aprendizaje reforzado ha llevado a una explosión de potencia computacional, y la eficiencia es incluso menor de lo que se imaginaba.
Sutskever también mencionó que en los últimos años, muchas empresas han alcanzado escalas de entrenamiento de refuerzo (RL) que incluso superan el preentrenamiento. Estas inferencias de largas secuencias consumen una gran cantidad de potencia computacional, pero el aprendizaje efectivo que resulta de cada inferencia es en realidad limitado, lo que reduce la eficiencia general. Si continuamos dependiendo de la misma forma de entrenamiento, solo se invertirán más recursos, pero será difícil superar los límites intrínsecos del modelo.
Por lo tanto, él cree que la industria de la IA está regresando gradualmente a la etapa de investigación de “buscar nuevos métodos”, donde el enfoque ya no es quién tiene el mayor centro de datos, sino quién puede encontrar nuevos principios de aprendizaje.
(Nota: Aprendizaje por refuerzo, que significa permitir que el modelo crezca a través de un método de entrenamiento basado en prueba y error. Después de completar una tarea, el modelo recibe retroalimentación o recompensas y ajusta su comportamiento en consecuencia. )
Enfócate en entender y aprender, el modelo de negocio se discutirá después.
Sutskever afirmó que la estrategia de SSI es centrarse en la investigación, especialmente en entender la generalización, el aprendizaje humano y cómo los modelos pueden mejorar por sí mismos con pocas demostraciones. Considera que en lugar de apresurarse a responder sobre el modelo de negocio, es mejor concentrarse en encontrar una arquitectura de aprendizaje más fundamental que el preentrenamiento; una vez que se produzca un avance, diversas aplicaciones comerciales comenzarán a surgir.
Él estima que en los próximos 5 a 20 años, habrá la oportunidad de crear una IA cuya “eficiencia de aprendizaje sea comparable a la humana”. Una vez que las máquinas puedan dominar nuevas habilidades tan rápidamente como los humanos, y se desplieguen a gran escala, la capacidad general mostrará un crecimiento exponencial, acercándose a la superinteligencia.
La brecha entre la evaluación y la utilidad desaparecerá con la aparición de nuevos métodos de aprendizaje.
Sutskever finalmente señaló que la razón por la cual la revolución de la IA actual no parece ser tan drástica es porque todavía existe una clara desconexión entre la capacidad del modelo y la forma en que se utiliza. Cuando los modelos evolucionen de ser capaces de realizar exámenes a ser capaces de aprender, autocorregirse, generalizar continuamente y crecer de manera estable, la IA transformará la vida global a una velocidad extremadamente rápida.
Para entonces, las personas no solo verán grandes inversiones en las noticias, sino que realmente sentirán el cambio en su vida diaria.
Este artículo de un ex-científico de OpenAI: la potencia computacional ha alcanzado su límite, la industria de la IA debe regresar al núcleo de la investigación. Apareció por primera vez en Chain News ABMedia.