🤖 O Google coloca agentes de IA no centro de sua estratégia para gerar lucro para empresas ↗
O Google apostou todas as fichas na ideia de que agentes de IA — e não apenas chatbots ou assistentes de programação — são o próximo produto empresarial de grande impacto. Renomeou partes de sua plataforma de IA na nuvem sob o nome "Gemini Enterprise" e apresentou os agentes como algo que as empresas podem implementar para trabalho prático, e não apenas para serem exibidos em reuniões e esquecidos na hora do almoço.
O mais surpreendente é a mudança de tom. O Google praticamente declarou que a fase experimental terminou, o que é uma posição ousada no campo da IA. A empresa também introduziu novos controles de governança e segurança para os agentes, claramente com o objetivo de tranquilizar aqueles que ainda pensam: "Legal, mas será que isso pode se descontrolar?"
🧠 O Google Cloud lança dois novos chips de IA para competir com a Nvidia ↗
O Google também apresentou duas novas TPUs — uma para treinamento e outra para inferência — em seus esforços para consolidar sua posição em toda a cadeia de valor da IA. A empresa afirma que a nova configuração permite treinar modelos muito mais rapidamente, oferecer melhor desempenho por dólar investido e escalar para tamanhos de cluster quase absurdos.
Isso não significa exatamente uma separação da Nvidia, mas sim um sinal muito público de que o Google está mantendo suas opções em aberto. O Google ainda planeja oferecer os chips mais recentes da Nvidia, mas a mensagem é bastante clara: ele quer que as empresas usem silício do Google, nuvem do Google e modelos do Google em um ciclo integrado e eficiente.
💼 A OpenAI se une à Infosys para levar ferramentas de IA a mais empresas ↗
A OpenAI fez uma parceria com a Infosys para integrar ferramentas como o Codex à plataforma Topaz da gigante de TI. O foco é totalmente voltado para o núcleo corporativo — engenharia de software, modernização de sistemas legados, DevOps, automação de fluxos de trabalho — todo o trabalho que parece árido até começar a substituir grandes quantidades de mão de obra.
Há um tom um tanto desconfortável aqui. Grandes empresas de terceirização estão sob pressão porque a IA generativa ameaça partes dos negócios que elas já vendem, então a parceria com a OpenAI parece inteligente e um pouco defensiva ao mesmo tempo. Mesmo assim, mostra para onde o mercado está caminhando: menos demonstrações chamativas e mais "como integramos isso a uma plataforma de uma empresa da Fortune 500 até segunda-feira?"
🖱️ Agora, a Meta irá monitorar o que os funcionários fazem em seus computadores para treinar seus agentes de IA ↗
A Meta está implementando uma ferramenta interna que registra movimentos do mouse, cliques, pressionamentos de teclas e capturas de tela ocasionais em dispositivos de trabalho para ajudar no treinamento de agentes de IA. A premissa é bastante simples: se você quer agentes que possam usar computadores da mesma forma que as pessoas, precisa de exemplos reais de pessoas usando computadores.
Como era de se esperar, os funcionários não parecem nada satisfeitos. Há relatos de reações negativas internas e, aparentemente, não existe a opção de desativar o compartilhamento de dados nos laptops da empresa. A Meta afirma que os dados não se destinam a avaliações de desempenho e que existem medidas de segurança, mas, sem dúvida, essa medida não foi bem recebida.
🔐 O modelo de IA mais perigoso da Anthropic acaba de cair em mãos erradas ↗
Um pequeno grupo não autorizado teria obtido acesso ao modelo Mythos da Anthropic, um sistema focado em cibersegurança que a empresa mantém sob controle rigoroso devido ao seu potencial de uso indevido. O grupo teria acessado o sistema por meio de um ambiente de terceiros contratado e, em seguida, utilizado técnicas aparentemente comuns de investigação na internet.
Essa é a parte preocupante: não se trata de uma invasão hacker cinematográfica, mas sim de um problema indireto. O Mythos foi concebido para um conjunto limitado de empresas e governos, não para um grupo privado online que vasculha a internet em busca de modelos não lançados. A Anthropic afirma estar investigando e não ter evidências de que seus próprios sistemas tenham sido amplamente afetados, mas ainda assim... não é o ideal, para dizer o mínimo.
Perguntas frequentes
Por que o Google está investindo tanto em agentes de IA para o trabalho corporativo?
O Google está posicionando seus agentes de IA como softwares empresariais práticos, em vez de assistentes experimentais. Ao renomear partes de sua plataforma em nuvem sob a marca Gemini Enterprise, a empresa sinaliza que os agentes devem ser tratados como ferramentas para fluxos de trabalho reais, e não apenas como demonstrações refinadas. Os controles adicionais de governança e segurança também sugerem que o Google entende que os compradores corporativos ainda buscam segurança em relação aos riscos.
O que a Gemini Enterprise muda para as empresas que avaliam agentes de IA?
A principal mudança está na abordagem. O Google afirma que a fase de testes está praticamente concluída e que os agentes de IA estão prontos para serem implementados em tarefas comerciais do dia a dia. Isso é importante porque os compradores corporativos tendem a preferir produtos gerenciados com controles, governança e segurança integrados, e não ferramentas experimentais instáveis que parecem impressionantes, mas que ainda são difíceis de confiar em produção.
Por que o Google está desenvolvendo novos chips de IA em vez de depender exclusivamente da Nvidia?
O Google quer um controle mais rígido sobre toda a pilha de IA, desde os modelos até a infraestrutura em nuvem e os chips. As novas TPUs são voltadas para diferentes tarefas, com uma focada em treinamento e outra em inferência, e o Google afirma que elas melhoram a velocidade, a escalabilidade e o desempenho por dólar investido. A empresa não está abandonando a Nvidia, mas claramente busca manter mais cargas de trabalho de IA corporativas dentro do seu próprio ecossistema.
Como a parceria entre a OpenAI e a Infosys se encaixa na adoção de IA pelas empresas?
Isso demonstra que a IA empresarial está se aproximando das operações essenciais dos negócios. Em vez de se concentrar em casos de uso chamativos para o consumidor, a parceria foca em engenharia de software, DevOps, automação de fluxo de trabalho e modernização de sistemas legados em grandes empresas. Isso sugere que os compradores desejam cada vez mais a IA integrada a sistemas e serviços existentes, especialmente por meio de parceiros que já atuam em ambientes de empresas da Fortune 500.
Por que os funcionários da Meta estão preocupados com agentes de IA treinados com base em atividades no local de trabalho?
A preocupação não reside tanto no objetivo em si, mas sim na forma como os dados estão sendo coletados. A ferramenta interna da Meta, segundo relatos, registra cliques, teclas digitadas, movimentos do mouse e algumas capturas de tela em dispositivos corporativos, o que naturalmente levanta questões de privacidade e confiança. Mesmo com garantias de que os dados não estão sendo usados para avaliações de desempenho, a reação negativa dos funcionários é compreensível quando não há opção de desativação nos laptops da empresa.
O que o incidente do Mito Antrópico revela às empresas sobre segurança e governança da IA?
Isso sugere que os riscos de acesso nem sempre decorrem de violações diretas e drásticas. Neste caso, o problema relatado envolvia um ambiente de um contratado terceirizado e investigações online comuns, o que ressalta como vulnerabilidades indiretas podem ser tão importantes quanto as regras de segurança padrão. Para as empresas, isso reforça a necessidade de controles de acesso mais rigorosos, supervisão mais forte dos contratados e governança em torno de sistemas de IA de alto risco.