🧠 A OpenAI firma parceria com a Cerebras ↗
A OpenAI afirma que está adicionando 750 MW de capacidade computacional de IA de latência ultrabaixa por meio do Cerebras – basicamente uma tentativa de fazer com que as respostas pareçam mais “em tempo real”, em vez de “vá fazer um chá e volte mais tarde”.
A proposta continua simples: ciclos de inferência mais rápidos (perguntar - pensar - responder) significam que as pessoas permanecem por mais tempo e executam cargas de trabalho mais pesadas... o que, sim, faz sentido. A capacidade será implementada em fases, com mais recursos entrando em operação até 2028.
🔍 O Google utiliza e-mails e histórico do YouTube em sua busca por IA personalizada ↗
O Gemini do Google está se tornando mais "personalizado" ao coletar informações como o histórico do Gmail, da Busca e do YouTube — caso você opte por participar (e essa opção está desativada por padrão). É a versão chatbot do seu celular que sabe que você está com fome antes mesmo de você saber.
A ideia é que o Gemini consiga inferir preferências e contexto, para que as respostas pareçam menos genéricas e mais como se ele realmente se lembrasse da sua vida. Prático — e também o tipo de coisa que faz você parar no meio da rolagem e pensar: "Espera aí, ele sabe muita coisa."
🧩 A venda de um poderoso chip de IA da Nvidia para a China foi aprovada, mediante algumas condições ↗
Os EUA aprovaram a venda de chips de IA H200 para a China, mas com uma série de ressalvas (prioridade para o fornecimento aos EUA, etapas adicionais de revisão, limites sobre onde os chips podem ser enviados).
Os legisladores estão divididos: alguns veem isso como um risco à segurança nacional, outros como uma jogada competitiva (porque se você não vender, alguém mais venderá... ou a China simplesmente constrói mais rápido). É uma daquelas medidas políticas que são, de alguma forma, ao mesmo tempo "estratégicas" e confusas.
🛡️ A startup belga de cibersegurança Aikido alcança o status de unicórnio com nova rodada de financiamento ↗
A Aikido Security atingiu uma avaliação de US$ 1 bilhão após levantar US$ 60 milhões , apostando fortemente na abordagem de "medidas de segurança para desenvolvedores", visto que a codificação assistida por IA continua... multiplicando código, bugs e surpresas imprevistas.
Eles estão apresentando o produto como uma solução de segurança focada no desenvolvedor, que sinaliza riscos automaticamente sem transformar cada sprint em um pesadelo de conformidade. O mais surpreendente é a rapidez com que cresceram — o mercado está claramente pagando por algo como "por favor, impeça que meu código de IA lance vulnerabilidades".
👩💻 A Anthropic expande o Claude Code para além das tarefas de desenvolvedor com o Cowork ↗
A Anthropic está expandindo o conceito de "trabalhe comigo" para o Claude Code por meio do Cowork - deixando de ser apenas uma ajuda com programação e se tornando mais um assistente colaborativo que pode ser integrado aos fluxos de trabalho.
Faz parte de uma tendência maior em que os assistentes de código deixam de ser um recurso sofisticado de autocompletar e começam a agir como colegas de equipe semiautônomos… o que é empolgante, alarmante ou ambos, dependendo de como foi sua última revisão de PR.
🧯 depthfirst anuncia rodada de financiamento Série A de US$ 40 milhões para proteger o software mundial ↗
A DepthFirst arrecadou US$ 40 milhões para desenvolver uma abordagem nativa de IA para segurança de software — o tipo de abordagem que visa detectar vulnerabilidades reais com menos falsos alarmes (o eterno sonho, na verdade).
Eles estão se posicionando como um "laboratório de IA aplicada" para segurança, com financiamento voltado para a expansão da pesquisa e do produto. Se a IA está ajudando a escrever mais código mais rapidamente, a contrapartida é basicamente a IA ajudando a defendê-lo mais rapidamente — uma cobra devorando outra cobra, de sobretudo.
Perguntas frequentes
O que a parceria da OpenAI com a Cerebras significa para a velocidade de resposta?
A OpenAI afirma que a parceria com a Cerebras adiciona 750 MW de capacidade computacional de IA de latência ultrabaixa, com o objetivo de tornar as respostas mais imediatas. O resultado prático é a agilização dos ciclos de inferência — perguntar, pensar, responder — para que as interações sejam mais ágeis. Isso também pode tornar as cargas de trabalho mais pesadas mais fluidas, sem as longas e incômodas pausas. A capacidade está prevista para ser implementada em fases até 2028.
Quando os 750 MW de capacidade computacional do Cerebras estarão efetivamente disponíveis?
O anúncio descreve a implementação como gradual, com mais capacidade entrando em operação até 2028, em vez de tudo de uma vez. Com expansões graduais, os ganhos iniciais tendem a aparecer primeiro e depois se ampliam à medida que a infraestrutura se expande. Se você estiver monitorando o impacto, os sinais mais claros geralmente se manifestam como menor latência e desempenho mais estável sob carga. O destaque é uma expansão plurianual.
Como o Google Gemini usa o histórico do Gmail, da Busca e do YouTube para personalização?
O plano do Google é tornar o Gemini mais personalizado, utilizando informações de fontes como Gmail, Busca e histórico do YouTube — mas apenas se você optar por ativar essa função. Ela vem desativada por padrão, o que é importante para a privacidade e para alinhar as expectativas. O objetivo é que o Gemini infira suas preferências e o contexto, para que as respostas pareçam menos genéricas. Muitos usuários vão ponderar a conveniência em relação à quantidade de "memória" que se sentem confortáveis em habilitar.
A personalização do Gemini é ativada automaticamente? E qual a contrapartida em termos de privacidade?
Nesta implementação, o Google posiciona o recurso como opcional, estando desativado por padrão. Isso significa que você pode escolher permitir que o Gemini use sinais de produtos como o Gmail ou o histórico do YouTube para personalizar as respostas. A contrapartida é simples: mais contexto pode melhorar a relevância, mas também aumenta a quantidade de dados pessoais envolvidos na experiência. Uma abordagem comum é habilitá-lo seletivamente e revisar as configurações regularmente.
Quais foram as condições impostas pelos EUA para a venda do chip H200 da Nvidia à China?
A aprovação descrita aqui vem com salvaguardas, incluindo prioridade para o fornecimento dos EUA, etapas adicionais de revisão e limites quanto ao destino final dos chips. O debate também é detalhado: alguns legisladores veem risco à segurança nacional, enquanto outros argumentam a favor da competitividade — se as empresas americanas não venderem, fornecedores alternativos ou substitutos nacionais podem ganhar força. Trata-se de uma medida política com intenções estratégicas e complexas compensações.
Por que startups de segurança de IA como Aikido e DepthFirst estão captando grandes rodadas de investimento neste momento?
O tema central é que a codificação assistida por IA está multiplicando a produção de código — e, com ela, bugs e vulnerabilidades imprevistas —, aumentando a demanda por mecanismos de segurança amigáveis ao desenvolvedor. O Aikido se posiciona como uma solução de segurança "priorizando o desenvolvedor", que sinaliza riscos sem transformar cada sprint em um atrito de conformidade, enquanto o DepthFirst propõe uma abordagem nativa de IA voltada para a detecção de problemas reais com menos falsos alarmes. À medida que o volume de código cresce, "protegê-lo mais rapidamente" se torna um item essencial no orçamento, e não um mero diferencial.