janeiro 13, 2026
1a194305f2520c73ab82696b5b2e8c45deda2be7ce7de422679e3a4e9dd08995.webp

A capacidade da IA ​​de aprender com os dados pessoais de um cliente significa que ela pode manipular suas preferências e as decisões de compra de um agente de IA que implantou, de forma mais eficaz do que os estímulos tradicionais, descobriu o ACCC.

A presidente da ACCC, Gina Cass-Gottlieb, disse que a ascensão de robôs movidos a IA aumentou o risco de conduta de cartel.Crédito: Edwina Picles

Mesmo sem um agente de IA agindo em nome do consumidor, os agentes de IA implantados pelas empresas podem utilizar dados pessoais para adaptar o marketing ao comportamento de consumo em tempo real de um indivíduo, tais como as suas vulnerabilidades emocionais, algo que equivaleria a um “hiper empurrão” para pressioná-los a fazer uma venda.

Em termos de conduta de cartel, embora algumas empresas possam direcionar algoritmos para fixar deliberadamente preços, a ACCC alertou que a utilização generalizada de agentes de IA pelas empresas pode dar origem ao risco de os agentes de IA “aprenderem a conspirar entre si, mesmo quando o conluio não é pretendido pelos seus criadores ou operadores”.

Ele referiu-se a pesquisas de que “concorrentes que usam o mesmo agente de IA podem acabar trocando informações sobre preços competitivos, sem saberem ou pretenderem fazê-lo”.

Na segunda-feira, Cass-Gottlieb disse que “há alguns riscos bastante sérios na conduta do cartel.

“Já houve alguns casos internacionalmente de conluio algorítmico, então você olha para a questão do comportamento anticompetitivo e levanta a questão de saber se os sistemas de IA são inteligentes o suficiente para determinar se é do interesse das pessoas que os implementam coordenar seu comportamento”, disse Cass-Gottlieb.

Carregando

Ele referiu-se a um assunto recente nos Estados Unidos, onde o Departamento de Justiça chegou a um acordo com uma plataforma imobiliária sobre alegações de que um software algorítmico de definição de rendas alegadamente permitiu aos proprietários competir menos e aumentar os preços que cobravam aos inquilinos.

“Há claramente a capacidade de fazer isso em um nível incrivelmente sofisticado, baseado em dados altamente atualizados com análises muito rápidas usando IA”, disse Cass-Gottlieb.

Nesses casos de conluio algorítmico, a ACCC observou que as empresas “podem levar as corporações a contestar a sua responsabilidade pelos resultados ou ações” dos seus agentes. No entanto, uma análise do Tesouro sobre a IA e as leis do consumidor, em Outubro, concluiu que as leis existentes eram adequadas.

Cass-Gottlieb disse que era importante que as leis acompanhassem o desenvolvimento da tecnologia de IA para garantir que a situação dos australianos não piorasse. “A esperança é que seja um resultado líquido positivo, permitindo que os consumidores estejam mais bem informados… (mas) o temor é que melhore a capacidade de usar esses tipos de (métodos) negativos.”

A geração cada vez mais sofisticada de imagens, voz e websites utilizando IA também é uma grande preocupação para a ACCC. Avaliações falsas são outro problema que Cass-Gottlieb espera que piore com a proliferação da IA, devido à sua capacidade de gerar avaliações convincentes.

Isso também significa que lojas fantasmas são mais fáceis de configurar, disse ele. Esses são sites que afirmam ser a presença on-line de pequenas empresas locais que estão fechando vendas, mas na verdade não existem e, em vez disso, enviam diretamente produtos de baixa qualidade do exterior.

“Pode capacitar fraudes, para que as mensagens que recebemos pareçam muito mais credíveis porque nos são dirigidas de uma forma mais eficaz e credível, mesmo antes de perguntarmos sobre a replicação de voz da IA”, disse Cass-Gottlieb.

Referência