Aderir à Inteligência Artificial sem governança vira risco oculto para empresas, alerta especialista

A adoção acelerada da Inteligência Artificial Generativa no Brasil, muitas vezes sem políticas estruturadas de governança, tem exposto empresas a riscos críticos que vão muito além da tecnologia, afetando segurança da informação, privacidade de dados, conformidade legal e até a continuidade do negócio. O alerta é da especialista em Inteligência Artificial Victoria Luz, que mapeou os principais riscos do uso corporativo da IA e defende uma abordagem mais responsável.

Segundo a especialista, o entusiasmo com ferramentas generativas tem levado organizações a incorporar IA em processos sensíveis sem avaliação adequada, criando vulnerabilidades silenciosas. Entre os riscos mais recorrentes estão as alucinações da IA, quando sistemas produzem respostas aparentemente confiáveis, porém falsas, além da exposição indevida de dados pessoais, um ponto especialmente sensível em um país onde a privacidade é considerada valor essencial pela maioria dos consumidores.

LEIA TAMBÉM: Tecnologia fiscal passa a definir a competitividade das empresas em meio à burocracia tributária

Outro fator de preocupação é o avanço dos deepfakes e das mídias sintéticas, que já provocaram um crescimento expressivo de crimes digitais no Brasil. Empresas enfrentam golpes envolvendo voz e vídeo falsificados, principalmente em aplicativos de mensagens, o que reforça a necessidade de uma cultura permanente de verificação das informações.

Também ganham destaque riscos técnicos menos visíveis, como prompt injection, vazamento de dados estratégicos e a chamada Shadow AI, quando funcionários utilizam ferramentas de IA sem aprovação da área de tecnologia. A ausência de governança adequada amplia ainda mais os problemas relacionados a viés algorítmico, vazamento de propriedade intelectual e descumprimento da legislação, especialmente da Lei Geral de Proteção de Dados (LGPD) e das futuras regras previstas no PL 2338/2023, que trata do uso ético da inteligência artificial no país.

Sistemas automatizados que utilizam dados sem consentimento ou não explicam suas decisões podem gerar sanções legais e danos reputacionais significativos. Além disso, o uso de soluções baseadas em terceiros amplia a superfície de ataque cibernético, já que falhas em fornecedores, APIs ou bibliotecas externas podem comprometer toda a operação.

Para Victoria Luz, a mensagem é clara: a inovação não pode se transformar na maior vulnerabilidade das empresas. “A IA precisa ser implementada com propósito, segurança e governança, ou o custo do uso inadequado será maior do que qualquer ganho de eficiência”, conclui.

Autor

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *