Un juez federal en San Francisco otorgó esta semana una victoria a Amazon contra Perplexity AI, bloqueando el navegador Comet de la startup para realizar compras en Amazon en nombre de los usuarios, al menos por ahora. La resolución, emitida el lunes por la jueza de distrito Maxine Chesney, es una orden de restricción preliminar, no un veredicto final. La disputa legal más amplia sobre si los agentes de IA pueden comprar en plataformas de terceros sin el consentimiento de estas sigue siendo una cuestión abierta.
El caso comenzó en noviembre de 2025 cuando Amazon presentó una demanda contra Perplexity bajo la Ley Federal de Fraude y Abuso Informático y un estatuto de fraude informático de California, acusando a la startup de disfrazar las sesiones automatizadas de Comet como tráfico regular del navegador Google Chrome. Amazon afirmó que había advertido a Perplexity al menos cinco veces desde noviembre de 2024. Cuando Amazon implementó un bloqueo técnico en agosto de 2025, Perplexity lanzó una actualización de software en 24 horas para sortearlo. La jueza citó esa acción en su fallo.
La jueza Chesney encontró que Amazon proporcionó “pruebas prácticamente indiscutibles” de que Perplexity accedió a cuentas Prime protegidas por contraseña con el permiso de los usuarios, pero sin autorización de Amazon. La diferencia es el núcleo de la disputa. Perplexity argumentó que Comet simplemente automatiza lo que los usuarios le indican hacer, lo que significa que hereda los permisos del usuario. Al menos preliminarmente, el tribunal rechazó esa lógica. Según la orden, Perplexity debe dejar de acceder a esas cuentas y destruir copias de los datos de clientes de Amazon que ya haya recopilado a través de Comet. La orden de restricción se mantiene durante siete días para dar tiempo a Perplexity de apelar ante el Noveno Circuito. Perplexity enmarcó su respuesta pública en torno a los derechos de los usuarios, diciendo que “continuará luchando por el derecho de los usuarios de internet a elegir cualquier IA que deseen”, según un informe de CNBC del martes. En una publicación en su blog de noviembre, la compañía calificó la campaña legal de Amazon como “acoso” y argumentó que las compras automatizadas significarían más transacciones para Amazon, no menos. El CEO de Amazon, Andy Jassy, dijo previamente en noviembre que el comercio automatizado “tiene la oportunidad de ser realmente bueno para el comercio electrónico”, pero argumentó que los agentes aún no son lo suficientemente precisos en personalización y precios. Es una distinción que Amazon utilizó para justificar el bloqueo de Comet mientras desarrolla sus propias herramientas.
Amazon generó en 2025 solo 68.600 millones de dólares en ingresos por publicidad. Cuando un agente de IA pasa directamente a la compra, desaparecen todos los listados patrocinados entre la búsqueda y la compra. Riesgo de IA Y todavía está el aspecto de seguridad a considerar, argumenta Amazon. Investigadores de seguridad en Brave revelaron vulnerabilidades de inyección de comandos en Comet en octubre de 2025, y análisis empresarial encontró que el navegador era más vulnerable a phishing que Chrome. Amazon citó esos hallazgos en su denuncia, junto con evidencia de que gastó más de 5.000 dólares, incluyendo muchas horas de ingeniería, en construir nuevos sistemas de detección para filtrar el tráfico automatizado de anuncios de Comet. El fundador y presidente ejecutivo de Amazon, Jeff Bezos, es inversor personal en Perplexity. La división de nube de Amazon, AWS, firmó un acuerdo de infraestructura por 38 mil millones de dólares con OpenAI de Sam Altman el 3 de noviembre de 2025, un día antes de que se presentara la demanda contra Perplexity. Amazon tiene sus propias herramientas de compras con IA y ha bloqueado por separado a ChatGPT para comprar en su plataforma. Amazon actualizó su Acuerdo de Soluciones Empresariales, vigente desde el 4 de marzo de 2026, que requiere formalmente que todos los agentes de IA se identifiquen al acceder a sus servicios. Si la orden de restricción se mantiene, podría establecer un precedente temprano: las plataformas pueden negar el acceso a agentes de IA incluso cuando los usuarios lo hayan autorizado explícitamente.
Nunca se ha probado en juicio cómo se aplica la Ley Federal de Fraude y Abuso Informático a software con agentes que actúan en nombre de un humano. Esa cuestión ahora está claramente ante el tribunal.