Notícias de IA, 4 de março de 2026

Resumo das notícias de IA: 4 de março de 2026

🏛️ Governo criará novo laboratório para manter o Reino Unido na vanguarda dos avanços em IA

O Reino Unido está criando um Laboratório de Pesquisa Fundamental em IA, apoiado pelo governo, apresentando-o como um trabalho "de vanguarda" - o tipo de trabalho que é arriscado, lento e que às vezes compensa de uma forma que faz todos os outros parecerem que estavam dormindo. ( GOV.UK )

O foco não é apenas em "modelos maiores, mais GPUs" - trata-se de combater falhas persistentes como alucinações, memória curta e raciocínio imprevisível, além de dar aos pesquisadores acesso a poder computacional robusto por meio do Recurso de Pesquisa em IA. Parece muito sensato... e também, discretamente, uma tentativa de impedir que as melhores mentes do Reino Unido sejam imediatamente absorvidas por outros países. ( GOV.UK )

🧨 O CEO da Nvidia indica o fim dos investimentos na OpenAI e na Anthropic

Jensen Huang está sinalizando que a Nvidia pode não continuar investindo em laboratórios de IA de ponta da mesma forma, já que a dinâmica dos IPOs (e a enorme escala de cheques em discussão) torna esse estilo de financiamento mais difícil de concretizar. ( Reuters )

É uma mudança de tom que vale a pena observar: a Nvidia é a rainha das picaretas e pás neste boom todo, mas está insinuando que "possuir participações em mineradoras" nem sempre é a melhor estratégia. Ou talvez seja apenas uma forma de se precaver, algo que CEOs fazem, como respirar. ( Reuters )

🧩 Exclusivo: Grande grupo tecnológico apoia a Anthropic na disputa com o Pentágono, enquanto investidores pressionam para reduzir o conflito sobre as salvaguardas da IA

O impasse entre a Anthropic e o Pentágono está se transformando em uma verdadeira panela de pressão – segundo relatos, os investidores querem que a situação se acalme, enquanto a empresa tenta manter sua posição em relação às salvaguardas (especialmente no que diz respeito à vigilância). ( Reuters )

O subtexto da história é quase mais forte que o texto em si: na era da IA, a redação dos contratos não é "minúcia jurídica", é basicamente política do produto — e decide se um modelo se torna uma ferramenta, uma arma ou um passivo gigantesco. ( Reuters )

🪖 Sam Altman admite que a OpenAI não consegue controlar o uso de IA pelo Pentágono

Segundo relatos, Altman disse aos funcionários que a OpenAI não pode controlar como o Pentágono usa sua IA depois de implantada — o que não convence, pois expressa exatamente o medo que as pessoas vêm expressando. ( The Guardian )

O contexto mais amplo é o crescente atrito entre “vamos ajudar, com regras” e “vamos ajudar, ponto final”, além da reação negativa interna e pública quando a adoção militar parece apressada ou oportunista. A ética aqui é menos uma linha divisória clara e mais uma mancha de tinta fresca – todos pisam nela e depois discutem sobre de quem é a culpa. ( The Guardian )

🧬 Novo programa de bolsas de pesquisa em IA na genômica com o Instituto Sanger e o Google DeepMind

O Instituto Wellcome Sanger está lançando uma bolsa de pesquisa acadêmica financiada pela DeepMind, focada na aplicação de IA à genômica – uma vaga inédita para um pesquisador da DeepMind nessa área específica. ( sanger.ac.uk )

O que é interessante (e, francamente, um pouco revigorante) é a ênfase em problemas genômicos pouco explorados, onde a IA ainda não está presente em todos os lugares – além da observação explícita de que a DeepMind não direciona a pesquisa do pesquisador. É como dar um foguete para alguém e dizer “vá descobrir algo”, em vez de “vá otimizar nosso roteiro”. ( sanger.ac.uk )

Perguntas frequentes

O que é o Laboratório de Pesquisa Fundamental em IA, apoiado pelo governo do Reino Unido, e o que ele fará?

O Laboratório de Pesquisa Fundamental em IA, apoiado pelo governo, está sendo posicionado como um projeto de pesquisa inovador e de alto risco, que pode levar tempo para apresentar resultados. Em vez de se concentrar apenas em ampliar modelos cada vez maiores, o objetivo é enfrentar problemas persistentes como alucinações, memória curta e raciocínio imprevisível. A ideia principal é que as descobertas vêm dos fundamentos, e não simplesmente da adição de mais GPUs.

De que forma o Laboratório de Pesquisa Fundamental em IA do Reino Unido poderia ajudar os pesquisadores a obter acesso a recursos computacionais avançados?

Além do Laboratório de Pesquisa Fundamental em IA do Reino Unido, o plano destaca o acesso a recursos computacionais substanciais por meio do Recurso de Pesquisa em IA. Na prática, isso geralmente significa que os pesquisadores podem realizar experimentos que, de outra forma, seriam limitados por custos ou infraestrutura. Também permite que as equipes testem ideias em uma escala na qual problemas como confiabilidade e robustez se tornam concretos, e não apenas teóricos.

Por que o Reino Unido está dando tanta ênfase a alucinações, memória curta e raciocínio imprevisível?

Essas fragilidades são do tipo que vêm à tona na implementação e podem corroer a confiança rapidamente. O foco declarado sugere que o objetivo não é apenas a capacidade, mas a confiabilidade — reduzir resultados fictícios, aprimorar a forma como os modelos lidam com contextos mais longos e tornar o raciocínio menos errático. Esse tipo de trabalho costuma ser mais lento e arriscado, razão pela qual está sendo enquadrado como pesquisa fundamental.

O que a mudança de tom da Nvidia em relação aos investimentos na OpenAI ou na Anthropic realmente sinaliza?

A reportagem interpreta isso como um indício de que a Nvidia pode não continuar investindo em laboratórios de ponta da mesma forma, especialmente porque a dinâmica dos IPOs e os grandes valores dos cheques complicam essa estratégia. Mesmo sendo uma líder em hardware de IA, com foco em desenvolvimento prático, a empresa sugere que participações acionárias nem sempre são a melhor opção. Também pode ser uma mensagem cautelosa, comum em declarações de executivos.

Por que a disputa da Anthropic com o Pentágono sobre a "linguagem de salvaguarda" é tão importante?

O ponto principal do artigo é que a redação do contrato pode se tornar política do produto, especialmente quando envolve vigilância e outros usos sensíveis. Segundo relatos, os investidores querem apaziguar o conflito, enquanto a empresa tenta manter sua posição em relação às medidas de segurança. Em muitas implementações de IA, essas cláusulas definem para que o sistema pode ser usado e quais riscos a empresa efetivamente aceita.

O que significa quando Sam Altman diz que a OpenAI não pode controlar como o Pentágono usa a IA?

Isso descreve uma limitação prática: uma vez que uma ferramenta é implantada, o desenvolvedor original pode ter capacidade limitada de controlar seu uso posterior. Isso é particularmente relevante porque aponta para o principal receio que as pessoas levantam sobre a adoção militar — as regras podem existir na fase de contratação, mas a aplicação pode ser difícil. Também reflete uma tensão mais ampla entre "ajuda com restrições" e "ajuda sem restrições"

Notícias de IA de ontem: 3 de março de 2026

Encontre as últimas novidades em IA na Loja Oficial de Assistentes de IA

Sobre nós

Voltar ao blog