GPT-4, Gemini 1.5 y el avance de la tecnología de IA como Microsoft AI PC son impresionantes, pero actualmente el desarrollo de la IA también enfrenta algunos problemas. Bill, investigador de Web3 en AppWorks, ha investigado profundamente estos problemas y ha explorado 7 direcciones en las que la criptografía puede potenciar la IA.
Tokenización de datos
La capacitación tradicional de IA depende principalmente de los datos públicos disponibles en Internet, o más precisamente, de los datos de tráfico en el dominio público. Aparte de algunas empresas que ofrecen API abiertas, la mayoría de los datos aún no se han desarrollado. Cómo permitir que más titulares de datos contribuyan o autoricen el uso de sus datos para el entrenamiento de IA, garantizando al mismo tiempo la protección de la privacidad, es una dirección clave.
Sin embargo, el mayor desafío en este campo es que los datos son difíciles de estandarizar como la capacidad de cálculo. Aunque la capacidad de cálculo distribuido se puede cuantificar mediante el tipo de GPU, es difícil medir la cantidad, calidad y uso de los datos privados. Si la capacidad de cálculo distribuido es como ERC 20, la tokenización del conjunto de datos sería similar a ERC 721, lo que hace que la liquidez y la formación del mercado sean más desafiantes que ERC 20.
Ocean Protocol’s Compute-to-Data feature allows data owners to sell private data while protecting privacy. vana provides a method for Reddit users to aggregate data and sell it to companies that train AI large models.
Asignación de recursos
En la actualidad, hay una gran brecha entre la oferta y la demanda de potencia computacional de GPU, ya que las grandes empresas monopolizan la mayoría de los recursos de GPU, lo que hace que el costo de entrenar modelos sea muy alto para las pequeñas empresas. Muchos equipos están trabajando arduamente para reducir los costos mediante una red descentralizada que reúna los recursos de GPU de pequeña escala y baja utilización, pero aún enfrentan grandes desafíos para garantizar la estabilidad de la potencia computacional y el ancho de banda adecuado.
RLHF incentivador
El RLHF (aprendizaje por refuerzo basado en la retroalimentación humana) es esencial para mejorar los modelos grandes, pero requiere entrenamiento por parte de profesionales. A medida que el mercado se vuelve más competitivo, también lo hace el costo de contratar a estos profesionales. Para soltar costos mientras se mantienen anotaciones de alta calidad, se pueden utilizar sistemas de replanteo y slashing. Uno de los mayores gastos de la anotación de datos es la necesidad de que los supervisores comprueben la calidad. Sin embargo, durante largos años, la cadena de bloques ha utilizado con éxito incentivos económicos para garantizar la calidad del trabajo (PoW, PoS), creyendo que la creación de un buen sistema económico de tokens puede soltar efectivamente el costo de RLHF.
Por ejemplo, Sapien AI ha introducido Tag 2 Earn y ha colaborado con varias gremios de gamefi; Hivemapper ha acumulado datos de entrenamiento de 2 millones de kilómetros de carreteras mediante un mecanismo de incentivos con tokens; QuillAudits tiene planes de lanzar un agente de auditoría de contratos inteligentes de código abierto, que permitirá a todos los auditores entrenar al agente de forma conjunta y obtener recompensas.
Verificabilidad
Cómo verificar si un proveedor de potencia computacional ejecuta tareas de inferencia de acuerdo con requisitos o modelos específicos? Los usuarios no pueden verificar la autenticidad y precisión del modelo de IA y sus salidas. Esta falta de verificabilidad puede conducir a la desconfianza, errores e incluso daños en sectores como finanzas, medicina y derecho.
Mediante el uso de sistemas de verificación de encriptación como ZKP, OP y TEE, los proveedores de servicios de inferencia pueden demostrar que la salida se genera mediante un modelo específico. Los beneficios de utilizar la verificación de encriptación incluyen que el proveedor del modelo puede mantener la confidencialidad del mismo, los usuarios pueden verificar si la ejecución del modelo es correcta y se puede evitar la limitación de capacidad de cálculo en la cadena de bloques al agregar la prueba de encriptación al contrato inteligente. También se puede considerar ejecutar la IA directamente en el dispositivo para resolver problemas de rendimiento, pero hasta ahora no se ha encontrado una solución satisfactoria. Algunos proyectos en construcción en este campo son Ritual, ORA y Aizel Network.
Profundidad falsa
Con la aparición de la IA productiva, la gente está prestando cada vez más atención al problema de la falsificación profunda (DeepFake). Sin embargo, la velocidad de avance de la tecnología de falsificación profunda es más rápida que la de la tecnología de detección, lo que dificulta cada vez más la detección de la falsificación profunda. Aunque las técnicas de marca de agua digital (como C2PA) pueden ayudar a identificar la falsificación profunda, también tienen limitaciones porque las imágenes procesadas han sido modificadas y el público no puede verificar la firma en la imagen original, lo que dificulta mucho la verificación a través de las imágenes procesadas.
La tecnología de cadena de bloques puede resolver el problema de falsificación profunda de varias maneras. La autenticación de hardware puede utilizar chips de cámara a prueba de manipulaciones para incrustar pruebas de cifrado en cada foto original para verificar la autenticidad de la imagen. La cadena de bloques es inmutable y permite agregar imágenes con metadatos a bloques con marcas de tiempo para prevenir la manipulación y verificar la fuente original. Además, se puede adjuntar una firma de cifrado a las publicaciones utilizando una billetera para verificar la identidad del autor del contenido publicado, y la infraestructura KYC basada en la tecnología zk puede vincular la billetera con una identidad verificada, protegiendo al mismo tiempo la privacidad del usuario. Desde una perspectiva de incentivos económicos, los autores deben ser penalizados por publicar información falsa, mientras que los usuarios pueden recibir recompensas por identificar información falsa.
Numbers Protocol ha estado trabajando en este campo durante muchos años; la herramienta de verificación de Fox News se basa en la cadena de bloques de Polygon, lo que permite a los usuarios buscar artículos en la cadena de bloques y recuperar datos relacionados.
Privacidad
Cuando los modelos de IA se introducen en información confidencial que involucra campos como las finanzas, la atención médica y el derecho, también es extremadamente importante proteger la privacidad de los datos mientras se usan. El cifrado homomórfico (FHE) protege la privacidad cuando se utilizan modelos LLM procesando datos sin descifrado, siguiendo el flujo de trabajo:
El usuario inicia el proceso de inferencia en el dispositivo local y se detiene después de completar la capa inicial. Esta capa inicial no está incluida en el modelo compartido con el servidor.
El cliente encripta la operación intermedia y la envía al servidor;
El servidor procesa los datos cifrados con un mecanismo de atención parcial y envía los resultados de vuelta al cliente;
El resultado de descifrado del cliente y continúa inferiendo localmente.
FHE asegura la privacidad de los datos del usuario durante todo el proceso de manejo a través de este método.
Zama está construyendo una solución de encriptación completamente homomórfica (FHE) y recientemente ha completado una financiación de 73 millones de dólares para respaldar el desarrollo.
Agente de IA
La idea de los agentes de inteligencia artificial es muy futurista. ¿Cómo sería el futuro si los agentes de inteligencia artificial pudieran poseer activos y realizar transacciones? Es posible que las personas pasen de utilizar modelos generales de gran escala para tomar decisiones a asignar tareas a agentes especializados.
Estos agentes colaborarán entre sí, al igual que las relaciones económicas razonables pueden mejorar la capacidad de colaboración humana, agregar relaciones económicas a los agentes de IA también puede mejorar su eficiencia.
La blockchain puede ser un terreno de pruebas para este concepto. Por ejemplo, Colony está experimentando esta idea a través de juegos, proporcionando una billetera a los agentes de IA para que puedan realizar transacciones con otros agentes o jugadores reales para lograr objetivos específicos.
Conclusión
La mayoría de los problemas están relacionados con la IA de código abierto. Para asegurar que esta tecnología tan importante no sea monopolizada por unas pocas empresas en los próximos diez años, un sistema económico de tokens puede aprovechar rápidamente los recursos informáticos y conjuntos de datos descentralizados para reducir la brecha de recursos entre la IA de código abierto y la IA propietaria. La cadena de bloques puede rastrear el entrenamiento y la inferencia de la IA para lograr una mejor gobernanza de datos, mientras que la encriptación puede garantizar la confianza en la era post-IA y abordar problemas de falsificación profunda y protección de la privacidad.
Lectura relacionada
Un artículo revisa la dirección y el protocolo del aterrizaje cripto habilitado para IA
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Crypto habilita 7 grandes áreas de desarrollo para la IA (con proyectos representativos de alto potencial)
“Autor del texto original | @cebillhsu”
“Compilación | Golem”
GPT-4, Gemini 1.5 y el avance de la tecnología de IA como Microsoft AI PC son impresionantes, pero actualmente el desarrollo de la IA también enfrenta algunos problemas. Bill, investigador de Web3 en AppWorks, ha investigado profundamente estos problemas y ha explorado 7 direcciones en las que la criptografía puede potenciar la IA.
Tokenización de datos
La capacitación tradicional de IA depende principalmente de los datos públicos disponibles en Internet, o más precisamente, de los datos de tráfico en el dominio público. Aparte de algunas empresas que ofrecen API abiertas, la mayoría de los datos aún no se han desarrollado. Cómo permitir que más titulares de datos contribuyan o autoricen el uso de sus datos para el entrenamiento de IA, garantizando al mismo tiempo la protección de la privacidad, es una dirección clave.
Sin embargo, el mayor desafío en este campo es que los datos son difíciles de estandarizar como la capacidad de cálculo. Aunque la capacidad de cálculo distribuido se puede cuantificar mediante el tipo de GPU, es difícil medir la cantidad, calidad y uso de los datos privados. Si la capacidad de cálculo distribuido es como ERC 20, la tokenización del conjunto de datos sería similar a ERC 721, lo que hace que la liquidez y la formación del mercado sean más desafiantes que ERC 20.
Ocean Protocol’s Compute-to-Data feature allows data owners to sell private data while protecting privacy. vana provides a method for Reddit users to aggregate data and sell it to companies that train AI large models.
Asignación de recursos
En la actualidad, hay una gran brecha entre la oferta y la demanda de potencia computacional de GPU, ya que las grandes empresas monopolizan la mayoría de los recursos de GPU, lo que hace que el costo de entrenar modelos sea muy alto para las pequeñas empresas. Muchos equipos están trabajando arduamente para reducir los costos mediante una red descentralizada que reúna los recursos de GPU de pequeña escala y baja utilización, pero aún enfrentan grandes desafíos para garantizar la estabilidad de la potencia computacional y el ancho de banda adecuado.
RLHF incentivador
El RLHF (aprendizaje por refuerzo basado en la retroalimentación humana) es esencial para mejorar los modelos grandes, pero requiere entrenamiento por parte de profesionales. A medida que el mercado se vuelve más competitivo, también lo hace el costo de contratar a estos profesionales. Para soltar costos mientras se mantienen anotaciones de alta calidad, se pueden utilizar sistemas de replanteo y slashing. Uno de los mayores gastos de la anotación de datos es la necesidad de que los supervisores comprueben la calidad. Sin embargo, durante largos años, la cadena de bloques ha utilizado con éxito incentivos económicos para garantizar la calidad del trabajo (PoW, PoS), creyendo que la creación de un buen sistema económico de tokens puede soltar efectivamente el costo de RLHF.
Por ejemplo, Sapien AI ha introducido Tag 2 Earn y ha colaborado con varias gremios de gamefi; Hivemapper ha acumulado datos de entrenamiento de 2 millones de kilómetros de carreteras mediante un mecanismo de incentivos con tokens; QuillAudits tiene planes de lanzar un agente de auditoría de contratos inteligentes de código abierto, que permitirá a todos los auditores entrenar al agente de forma conjunta y obtener recompensas.
Verificabilidad
Cómo verificar si un proveedor de potencia computacional ejecuta tareas de inferencia de acuerdo con requisitos o modelos específicos? Los usuarios no pueden verificar la autenticidad y precisión del modelo de IA y sus salidas. Esta falta de verificabilidad puede conducir a la desconfianza, errores e incluso daños en sectores como finanzas, medicina y derecho.
Mediante el uso de sistemas de verificación de encriptación como ZKP, OP y TEE, los proveedores de servicios de inferencia pueden demostrar que la salida se genera mediante un modelo específico. Los beneficios de utilizar la verificación de encriptación incluyen que el proveedor del modelo puede mantener la confidencialidad del mismo, los usuarios pueden verificar si la ejecución del modelo es correcta y se puede evitar la limitación de capacidad de cálculo en la cadena de bloques al agregar la prueba de encriptación al contrato inteligente. También se puede considerar ejecutar la IA directamente en el dispositivo para resolver problemas de rendimiento, pero hasta ahora no se ha encontrado una solución satisfactoria. Algunos proyectos en construcción en este campo son Ritual, ORA y Aizel Network.
Profundidad falsa
Con la aparición de la IA productiva, la gente está prestando cada vez más atención al problema de la falsificación profunda (DeepFake). Sin embargo, la velocidad de avance de la tecnología de falsificación profunda es más rápida que la de la tecnología de detección, lo que dificulta cada vez más la detección de la falsificación profunda. Aunque las técnicas de marca de agua digital (como C2PA) pueden ayudar a identificar la falsificación profunda, también tienen limitaciones porque las imágenes procesadas han sido modificadas y el público no puede verificar la firma en la imagen original, lo que dificulta mucho la verificación a través de las imágenes procesadas.
La tecnología de cadena de bloques puede resolver el problema de falsificación profunda de varias maneras. La autenticación de hardware puede utilizar chips de cámara a prueba de manipulaciones para incrustar pruebas de cifrado en cada foto original para verificar la autenticidad de la imagen. La cadena de bloques es inmutable y permite agregar imágenes con metadatos a bloques con marcas de tiempo para prevenir la manipulación y verificar la fuente original. Además, se puede adjuntar una firma de cifrado a las publicaciones utilizando una billetera para verificar la identidad del autor del contenido publicado, y la infraestructura KYC basada en la tecnología zk puede vincular la billetera con una identidad verificada, protegiendo al mismo tiempo la privacidad del usuario. Desde una perspectiva de incentivos económicos, los autores deben ser penalizados por publicar información falsa, mientras que los usuarios pueden recibir recompensas por identificar información falsa.
Numbers Protocol ha estado trabajando en este campo durante muchos años; la herramienta de verificación de Fox News se basa en la cadena de bloques de Polygon, lo que permite a los usuarios buscar artículos en la cadena de bloques y recuperar datos relacionados.
Privacidad
Cuando los modelos de IA se introducen en información confidencial que involucra campos como las finanzas, la atención médica y el derecho, también es extremadamente importante proteger la privacidad de los datos mientras se usan. El cifrado homomórfico (FHE) protege la privacidad cuando se utilizan modelos LLM procesando datos sin descifrado, siguiendo el flujo de trabajo:
Zama está construyendo una solución de encriptación completamente homomórfica (FHE) y recientemente ha completado una financiación de 73 millones de dólares para respaldar el desarrollo.
Agente de IA
La idea de los agentes de inteligencia artificial es muy futurista. ¿Cómo sería el futuro si los agentes de inteligencia artificial pudieran poseer activos y realizar transacciones? Es posible que las personas pasen de utilizar modelos generales de gran escala para tomar decisiones a asignar tareas a agentes especializados.
Estos agentes colaborarán entre sí, al igual que las relaciones económicas razonables pueden mejorar la capacidad de colaboración humana, agregar relaciones económicas a los agentes de IA también puede mejorar su eficiencia. La blockchain puede ser un terreno de pruebas para este concepto. Por ejemplo, Colony está experimentando esta idea a través de juegos, proporcionando una billetera a los agentes de IA para que puedan realizar transacciones con otros agentes o jugadores reales para lograr objetivos específicos.
Conclusión
La mayoría de los problemas están relacionados con la IA de código abierto. Para asegurar que esta tecnología tan importante no sea monopolizada por unas pocas empresas en los próximos diez años, un sistema económico de tokens puede aprovechar rápidamente los recursos informáticos y conjuntos de datos descentralizados para reducir la brecha de recursos entre la IA de código abierto y la IA propietaria. La cadena de bloques puede rastrear el entrenamiento y la inferencia de la IA para lograr una mejor gobernanza de datos, mientras que la encriptación puede garantizar la confianza en la era post-IA y abordar problemas de falsificación profunda y protección de la privacidad.
Lectura relacionada
Un artículo revisa la dirección y el protocolo del aterrizaje cripto habilitado para IA