Até 2026, 5% dos funcionários se envolverão com o uso não autorizado de IA em suas organizações, segundo o Gartner. E esta é uma estimativa conservadora, na opinião de Avivah Litan, VP analyst da consultoria. “Diariamente, sou procurado por pessoas querendo saber como impedir que seus funcionários usem o ChatGPT”, diz ele.
A ascensão da IA Generativa está levando a um aumento preocupante da Shadow AI — o uso da tecnologia sem qualquer supervisão corporativa e barreiras de proteção. Comportamento que pode expor informações confidenciais e proprietárias à visão pública, indevidamente, comprometendo a privacidade, a propriedade intelectual e até outros direitos, levando a penalidades regulatórias. Aconteceu em abril, quando funcionários da Samsung vazaram inadvertidamente dados internos confidenciais para o ChatGPT — um incidente que colocou os líderes de TI em alerta máximo. No susto, a empresa proibiu temporariamente o uso de tecnologia pelos funcionários. Adiantou?
Para muitos especialistas, a IA Generativa chegou para ficar; e, em muitos casos, proibi-la só tornará as sombras mais escuras. É quase impossível acompanhar a lista crescente de ferramentas generativas de IA lançadas e atualizadas em 2023. A maioria delas tem versões gratuitas acessíveis na Internet por meio do browser. “Os funcionários vão usá-las. Se não fizermos nada a respeito, eles não terão escolha a não ser usá-las por conta própria”, afirma Chan, CIO da Avnet.
Este é um conteúdo exclusivo para assinantes.
Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.
É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.
Quatro lançamentos recentes — GPT-5, GPT-OSS, Genie 3 e Claude Opus 4.1 — mostram que a disputa não é mais por modelos maiores, mas por modelos mais úteis.
Mais seguro, mais barato e com novos truques agênticos, modelo continua longe da AGI e leva OpenAI a enfrentar críticas no lançamento.
Enquanto a IA avança, a amnésia digital dos modelos permanece um gargalo. Mas soluções já estão surgindo — de cofres pessoais de memória a plugins especializados.
Deepfakes e phishing por IA estão entre os principais vetores. Violação com IA encurta tempo e amplia escala de ataque
Relatório da IBM mostra que o custo médio é de R$ 7,19 milhões por violação. Mais de 60% das empresas não têm política de uso e uma em cada 6 violações usam IA para atacar organizações
Crie um conselho consultivo com personas geradas por IA para tomar decisões mais estratégicas, com clareza sob demanda e diversidade de pensamento
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso