A inteligência artificial já é parte da estrutura operacional de muitas empresas. Agentes de IA vêm sendo usados em atendimento ao cliente, automação de tarefas e apoio à tomada de decisão. Segundo a McKinsey, 72% das empresas já adotam IA generativa, e os investimentos em startups do setor subiram 62% em 2024, de acordo com a Dealroom. O problema não está na tecnologia, mas na forma como ela é contratada. Em meio à corrida por eficiência, muitas empresas assinam contratos genéricos, ou sequer formalizam acordos, sem prever questões essenciais como suporte técnico, controle da tecnologia, segurança da informação, responsabilidade por falhas, portabilidade de dados e hospedagem da solução.
Esses pontos definem o grau de dependência técnica e os riscos jurídicos envolvidos. E quanto mais sofisticado o agente, especialmente em áreas críticas como compliance, finanças ou segurança da informação, maior deve ser o cuidado contratual. O debate sobre esses riscos chegou ao Congresso Nacional. A PL 2338/23, busca estabelecer um marco legal para o uso da inteligência artificial no Brasil. A proposta define princípios como transparência, segurança e responsabilidade, além de prever classificações de risco para diferentes tipos de sistemas. Esse projeto já sinaliza que empresas e desenvolvedores poderão ser responsabilizados solidariamente por danos causados por agentes autônomos.
Além disso, muitos contratos falham ao definir quem pode auditar, atualizar ou desconectar o agente de IA em caso de necessidade. A ausência de mecanismos de desligamento seguro (kill switch), por exemplo, pode transformar um problema técnico em uma crise operacional. Empresas que integram IA profundamente em suas rotinas precisam prever cenários adversos e formas de intervenção humana. Outro ponto negligenciado é a propriedade intelectual sobre os fluxos desenvolvidos com IA. É comum que a empresa contratante personalize o agente para usos específicos, mas sem cláusulas claras, essa customização pode acabar nas mãos do fornecedor. Isso compromete não apenas a autonomia tecnológica, mas também a possibilidade de migração futura da solução, o que, na prática, pode aprisionar o cliente.
Hoje, a IA não tem personalidade jurídica. Isso significa que eventuais erros ou impactos recaem sobre quem fornece e quem contrata. Em contratos mal estruturados, a empresa usuária pode se ver sem amparo em caso de falhas graves ou interrupções operacionais. Contratar IA é uma decisão estratégica, e como toda decisão estratégica, exige previsibilidade. Modelos contratuais genéricos, herdados de sistemas tradicionais, não dão conta da complexidade dos riscos atuais. A tecnologia avança rápido. Os contratos precisam acompanhar.
• Por: Bruna Puga, advogada e empresária, especialista em Direito Empresarial e negócios da Nova Economia.