Los agentes de IA comienzan a ayudarte a ganar dinero, pero lo difícil es…

作者:Vaidik Mandloi

原标题:Conoce a tu Agente

编译及整理:BitpushNews


La promesa de que los agentes de IA cambiarán el panorama de Internet está comenzando a hacerse realidad. Han dejado de ser herramientas experimentales en ventanas de chat para convertirse en una parte indispensable de nuestras operaciones diarias—desde limpiar bandejas de entrada, programar reuniones hasta responder a tickets de soporte. Sin hacer ruido, están aumentando la productividad, aunque a menudo pasamos por alto estos cambios.

Pero este crecimiento no es solo un rumor.

Para 2025, el tráfico automatizado superará al humano, representando el 51% de toda la actividad en línea. Solo en EE. UU., el tráfico impulsado por IA en sitios minoristas ha crecido un 4700% respecto al año anterior. Los agentes de IA ahora operan en múltiples sistemas, muchos pueden acceder a datos, activar flujos de trabajo e incluso realizar transacciones.

Sin embargo, la confianza en los agentes completamente autónomos ha caído del 43% al 22% en un año, en gran parte debido al aumento de incidentes de seguridad. Casi la mitad de las empresas aún usan claves API compartidas para autenticar agentes, un método que nunca fue diseñado para transferir valor o actuar de forma independiente.

El problema es que la expansión de los agentes supera la infraestructura diseñada para gobernarlos.

En respuesta, están surgiendo nuevas capas de protocolos. Las stablecoins, integraciones con redes de tarjetas y estándares nativos como x402 están permitiendo que las máquinas inicien transacciones. Además, se están desarrollando nuevas capas de identidad y verificación para que los agentes puedan reconocerse y operar en entornos estructurados.

Pero pagar no equivale a tener una economía. Porque, una vez que los agentes puedan transferir valor, surgirán problemas más fundamentales: ¿cómo descubren los servicios adecuados en un formato legible por máquina? ¿Cómo prueban su identidad y autorización? ¿Cómo verificamos que las acciones que dicen haber realizado realmente ocurrieron?

Este artículo explorará la infraestructura necesaria para que la economía impulsada por agentes funcione a gran escala y evaluará si estas capas están lo suficientemente maduras para soportar participantes persistentes y autónomos que operan a velocidad de máquina.

Los agentes no pueden comprar lo que no ven

Antes de pagar por un servicio, un agente debe encontrarlo. Parece simple, pero es actualmente la mayor fuente de fricción.

Internet está construido para que los humanos lean páginas. Cuando buscan contenido, los motores de búsqueda devuelven enlaces clasificados. Estas páginas están optimizadas para persuadir. Están llenas de diseños, rastreadores, anuncios, barras de navegación y estilos que tienen sentido para las personas, pero para las máquinas son principalmente “ruido”.

Cuando un agente solicita la misma página, recibe el HTML original. Un artículo típico de blog o una página de producto puede requerir unos 16,000 tokens en esa forma. Convertido a Markdown limpio, el conteo cae a unos 3,000 tokens. Esto significa que el modelo debe procesar un 80% menos de contenido. Para una sola solicitud, esta diferencia puede no ser significativa. Pero cuando un agente realiza miles de estas solicitudes en diferentes servicios, el procesamiento excesivo se acumula en retrasos, costos y mayor complejidad de inferencia.

image.png

@Cloudflare

Al final, los agentes gastan mucho poder computacional en eliminar elementos de interfaz antes de acceder a la información central necesaria para actuar. Este esfuerzo no mejora la calidad de la salida, solo compensa una red que nunca fue diseñada para ellos.

A medida que el tráfico impulsado por agentes crece, esta ineficiencia se vuelve más evidente. La rastreo impulsado por IA en sitios minoristas y de software ha aumentado significativamente en el último año, representando ahora la mayor parte de la actividad en línea.

Al mismo tiempo, aproximadamente el 79% de los principales sitios de noticias y contenido bloquean al menos un rastreador de IA. Desde su perspectiva, esta respuesta es comprensible. Los agentes extraen contenido sin interactuar con anuncios, suscripciones o embudos de conversión tradicionales. Bloquearles ayuda a proteger sus ingresos.

El problema es que la web no tiene un método confiable para distinguir entre rastreadores maliciosos y agentes legítimos. Ambos parecen tráfico automático, ambos provienen de infraestructura en la nube. Para los sistemas, parecen iguales.

El problema más profundo es que los agentes no intentan “consumir” páginas, sino descubrir oportunidades de acción.

Cuando un humano busca “vuelos por menos de 500 dólares”, una lista de enlaces clasificados es suficiente. La persona puede comparar opciones y decidir. Pero cuando un agente recibe la misma instrucción, necesita algo muy diferente: saber qué servicios aceptan reservas, qué formato de entrada requieren, cómo se calculan los precios y si el pago puede liquidarse programáticamente. Muy pocos servicios publican claramente esta información.

image.png

@TowardsAI

Por eso, la búsqueda está migrando del SEO (optimización para motores de búsqueda) hacia la descubribilidad orientada a agentes (Agent-Oriented Discoverability), comúnmente llamada AEO. Si el usuario final es un agente, la clasificación en la página de búsqueda importa menos. Lo importante es que el servicio pueda describir sus capacidades en un formato que el agente pueda interpretar sin conjeturas. Si no, puede volverse “invisible” en una economía en crecimiento.

Los agentes necesitan identidad

image.png

@Hackernoon

Una vez que un agente puede descubrir servicios y realizar transacciones, el siguiente problema clave es que la otra parte del sistema sepa con quién está tratando. Es decir: identidad.

Los sistemas financieros actuales operan con muchas más identidades de máquina que humanas. En finanzas, la proporción de identidades no humanas respecto a humanas es aproximadamente 96 a 1. API, cuentas de servicio, scripts automatizados y agentes internos dominan la infraestructura institucional. La mayoría nunca fue diseñada para tener discreción sobre capital. Ejecutan instrucciones predefinidas, no negocian, no eligen proveedores ni inician pagos en redes abiertas.

Los agentes autónomos cambian esa frontera. Si un agente puede mover stablecoins o activar un proceso de pago sin confirmación manual, la pregunta central pasa de “¿puede pagar?” a “¿quién lo autoriza a pagar?”

Aquí es donde la identidad se vuelve fundamental, y surge el concepto de “Conoce a tu Agente” (Know Your Agent).

Al igual que las instituciones financieras verifican a los clientes antes de permitirles operar, los servicios que interactúan con agentes autónomos deben verificar tres cosas antes de otorgar acceso a capital o realizar operaciones sensibles:

  1. Autenticidad criptográfica: ¿controla realmente el agente las claves que dice tener?
  2. Permiso de delegación: ¿quién le otorgó permisos, y cuáles son sus límites?
  3. Conexión con el mundo real: ¿está el agente vinculado a una entidad con responsabilidad legal?

Estas verificaciones conforman la pila de identidad:

  • La base son las claves criptográficas y firmas. Estándares como ERC-8004 intentan formalizar cómo los agentes se registran en registros verificables en la cadena.
  • La capa intermedia son los proveedores de identidad, que vinculan las claves a entidades del mundo real, como empresas registradas, instituciones financieras o individuos verificados. Sin esta vinculación, una firma solo prueba control, no responsabilidad.
  • La capa periférica es la infraestructura de verificación en tiempo real: procesadores de pagos, CDN o servidores de aplicaciones que validan firmas, verifican credenciales y aplican límites de permisos. El Protocolo de Agentes de Confianza (Trusted Agent Protocol) de Visa, por ejemplo, permite a los comerciantes verificar si un agente está autorizado para actuar en nombre de un usuario. El Acuerdo de Agentes de Stripe (ACP) está llevando estas verificaciones a pagos programables y flujos de stablecoins.

Mientras tanto, el Protocolo Universal de Comercio (UCP), liderado por Google y Shopify, permite a los comerciantes publicar “listas de capacidades” que los agentes pueden descubrir y negociar. Funciona como una capa de orquestación, que se espera integrar en Google Search y Gemini.

image.png

@FintechBrainfood

Una diferencia importante es que los sistemas sin permisos y con permisos coexistirán.

En blockchains públicas, los agentes pueden realizar transacciones sin barreras centralizadas. Esto aumenta la velocidad y la composabilidad, pero también intensifica la presión regulatoria. La adquisición de Bridge por parte de Stripe ilustra esta tensión. Las stablecoins permiten transferencias instantáneas transfronterizas, pero las obligaciones regulatorias no desaparecen solo porque la liquidación ocurra en la cadena.

Esta tensión inevitablemente involucra a los reguladores. Cuando los agentes autónomos puedan iniciar transacciones financieras sin supervisión humana directa, la responsabilidad se vuelve ineludible. Los sistemas financieros no pueden permitir que el capital fluya a través de actores no identificados o no autorizados, incluso si son fragmentos de software.

El marco regulatorio ya está en marcha. La Ley de IA de Colorado, que entra en vigor el 1 de febrero de 2026, introduce requisitos de responsabilidad para sistemas automatizados de alto riesgo, y legislaciones similares están en desarrollo a nivel global. A medida que los agentes comiencen a tomar decisiones financieras a gran escala, la identidad dejará de ser opcional. Si la descubribilidad hace a los agentes visibles, la identidad será la credencial que los reconozca.

Verificación del desempeño y reputación del agente

Una vez que un agente empieza a ejecutar tareas relacionadas con dinero, contratos o información sensible, solo tener identidad no basta. Un agente verificado aún puede tener alucinaciones, distorsionar su trabajo, filtrar información o actuar mal.

Por eso, la pregunta clave es: ¿cómo demostrar que el agente realmente hizo lo que dice haber hecho?

Si un agente afirma haber analizado 1,000 documentos, detectado patrones de fraude o ejecutado estrategias de trading, debe existir un método para verificar que ese cálculo ocurrió realmente y que la salida no fue falsificada o dañada. Para ello, necesitamos una capa de rendimiento que lo garantice.

Actualmente, hay tres enfoques:

  1. Entornos de Ejecución Confiables (TEEs): El primero depende de pruebas basadas en hardware, como AWS Nitro o Intel SGX. En este modo, el agente corre en un enclave seguro que emite un certificado criptográfico confirmando que el código específico se ejecutó en datos específicos y sin alteraciones. La sobrecarga suele ser baja (5-10% de latencia adicional), aceptable para casos de alta integridad como finanzas y empresas.
  2. ZKML (Aprendizaje Automático con Pruebas de Conocimiento Cero): El segundo es un método matemático. ZKML permite que el agente genere pruebas criptográficas que demuestren que la salida fue producida por un modelo específico, sin revelar pesos ni datos privados. DeepProve-1 de Lagrange Labs, por ejemplo, demostró inferencias de GPT-2 en cero conocimiento, con velocidades 54-158 veces más rápidas que métodos anteriores.
  3. Seguridad mediante Re-staking (Restake Security): El tercero usa incentivos económicos en lugar de cálculos. Protocolos como EigenLayer introducen seguridad basada en staking: los validadores deben apostar capital detrás de la salida del agente. Si la salida es impugnada y se demuestra que es falsa, el stake se slashea (se penaliza). No prueban cada cálculo, sino que hacen que comportarse mal sea económicamente irracional.

Estas mecanismos abordan el mismo problema desde diferentes ángulos. Sin embargo, las pruebas de ejecución son puntuales. Verifican tareas individuales, pero el mercado necesita algo acumulativo. Aquí es donde la reputación se vuelve crucial.

La reputación convierte pruebas aisladas en un historial de rendimiento a largo plazo. Los sistemas emergentes buscan que el rendimiento del agente sea portable y encriptado, en lugar de depender de evaluaciones en plataformas específicas o paneles internos opacos.

Ethereum Attestation Service (EAS) permite a usuarios o servicios publicar pruebas firmadas en cadena sobre el comportamiento del agente. Una tarea exitosa, una predicción precisa o una transacción conforme puede registrarse de forma inmutable y trasladarse entre aplicaciones.

image.png

@EAS

También se están formando entornos de evaluación competitiva. Los Agent Arenas evalúan agentes en tareas estandarizadas y usan sistemas de puntuación como Elo. Recall Network reportó que más de 110,000 participantes generaron 5.88 millones de predicciones, creando datos de rendimiento medibles. A medida que estos sistemas crecen, empiezan a parecerse a mercados de calificación de agentes de IA.

image.png

Esto permite que la reputación sea portable entre plataformas.

En las finanzas tradicionales, agencias como Moody’s califican bonos para emitir señales de crédito. La economía de agentes necesitará una capa equivalente para evaluar a los actores no humanos. El mercado requerirá juzgar si un agente es confiable para delegar capital, si sus outputs son estadísticamente consistentes y si su comportamiento puede mantenerse estable a largo plazo.

Conclusión

A medida que los agentes adquieran autoridad real, el mercado necesitará una forma clara de medir su confiabilidad. Los agentes llevarán registros portables de rendimiento basados en verificaciones de ejecución y evaluación, con calificaciones ajustadas por calidad y permisos trazables a autorizaciones explícitas. Aseguradoras, comerciantes y sistemas regulatorios dependerán de estos datos para decidir qué agentes pueden acceder a capital, datos o flujos de trabajo regulados.

En resumen, estas capas comienzan a constituir la infraestructura de la economía de agentes:

  1. Descubribilidad (Discoverability): Los agentes deben poder encontrar servicios en un formato legible por máquina, o no podrán aprovechar oportunidades.
  2. Identidad (Identity): Los agentes deben poder probar quiénes son y quién los autorizó, o no podrán integrarse en sistemas confiables.
  3. Reputación (Reputation): Los agentes deben construir registros verificables que demuestren su confiabilidad, ganando confianza económica sostenida.
TOKEN-4,64%
ETH-5,13%
EIGEN-7,45%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado