Una jueza prohíbe a Perplexity actuar en Amazon con sus agentes de IA sin permiso de la plataforma

El fallo establece que la autorización de un usuario no es suficiente para que un agente de inteligencia artificial opere en su nombre dentro de una plataforma de terceros.

Amazon investiga una serie de fallos críticos vinculados al uso de IA generativa

Comet, el navegador de Perplexity

La jueza federal Maxine Chesney, del Distrito Norte de California, ha bloqueado temporalmente al navegador Comet de Perplexity el acceso a Amazon, en una resolución que va mucho más allá de un conflicto entre dos empresas tecnológicas: establece, por primera vez, que la autorización de un usuario no es suficiente para que un agente de inteligencia artificial opere en su nombre dentro de una plataforma de terceros.

El fallo responde a una demanda que Amazon presentó en noviembre de 2024 contra Perplexity, en la que la empresa creada por Jeff Bezos acusaba a la startup de IA de utilizar métodos para "ocultar" sus agentes automatizados mientras rastreaban su sitio web y accedían a cuentas privadas de usuarios sin autorización explícita de la compañía.

Amazon presenta pruebas sólidas contra Comet

La jueza Chesney consideró que Amazon aportó "pruebas sólidas" de que Comet, el navegador de Perplexity orientado a realizar compras de forma autónoma, accedía a los sistemas de la plataforma con el permiso del usuario, pero sin que Amazon hubiera dado su visto bueno.

La distinción, que puede parecer técnica, tiene implicaciones enormes: según la resolución, el propietario de una plataforma digital conserva el control sobre quién (o qué) puede entrar en sus sistemas, incluso cuando es el propio usuario quien abre la puerta.

El tribunal también señaló que Amazon demostró una "probabilidad de éxito" en sus argumentos y documentó gastos superiores a los 5.000 dólares, más "numerosas horas" de trabajo de sus empleados en el desarrollo de herramientas para bloquear el acceso de Comet.

Entre los argumentos de Amazon figuran tanto riesgos de seguridad (los agentes pueden operar dentro de cuentas protegidas con contraseña) como un perjuicio directo a su modelo publicitario, que se sustenta en que las compras ocurran dentro de su ecosistema cerrado y curado.

La relación entre el consumidor y la tienda

Ahí está, precisamente, la raíz del conflicto: no es solo un litigio sobre accesos informáticos no autorizados, sino una batalla por el control de la relación entre el consumidor y la tienda.

Amazon teme (con razón) que los agentes de IA desplacen esa relación hacia el intermediario tecnológico, reduciendo su capacidad de fidelizar al cliente y haciéndole competir en igualdad de condiciones con cualquier otro vendedor. El que sí tiene acceso a Amazon es Rufus, el propio agente de IA de la compañía.

La resolución es, por ahora, preliminar y queda suspendida durante siete días para permitir un posible recurso, del que Perplexity ya ha anunciado que hará uso. "Perplexity continuará luchando por el derecho de los usuarios de internet a elegir la IA que deseen", señaló un portavoz de la compañía.

Amazon, por su parte, celebró la medida como "un paso importante para mantener una experiencia de compra de confianza" para sus clientes.

Legislación anticuada

La sentencia, con todo, abre un debate de mayor calado. Las leyes que regulan el acceso no autorizado a sistemas informáticos (entre ellas la Computer Fraud and Abuse Act estadounidense) se redactaron en una época en la que la amenaza era el hacker masivo, el scraper indiscriminado o el buscador de vulnerabilidades.

Los agentes de IA que actúan a petición expresa y específica de un usuario representan un caso radicalmente distinto: no son una horda digital que asalta una puerta, sino alguien que entra con las llaves que el propio dueño ha entregado. Que ese acceso pueda considerarse igualmente ilegal es una conclusión que incomoda a buena parte del sector tecnológico.

Bloqueo de agentes de IA

Si el caso prospera en la dirección que apunta, las consecuencias para la industria de los agentes de IA serían significativas. Las plataformas tendrían derecho legal a bloquear agentes automatizados aunque el usuario los haya autorizado expresamente, y los desarrolladores de este tipo de sistemas necesitarían acuerdos formales, APIs o protocolos negociados con cada plataforma para poder operar.

Un panorama que, paradójicamente, favorecería a los gigantes tecnológicos con capacidad de negociar esos acuerdos (y de construir sus propios agentes) frente a los competidores que intentan operar en sus ecosistemas.

No hay comentarios

Ver los Comentarios

También te puede interesar

Lo último