Notícias sobre IA, 17 de dezembro de 2025

Resumo das notícias de IA: 17 de dezembro de 2025

💰 A Amazon está em negociações para investir US$ 10 bilhões na desenvolvedora do ChatGPT

Segundo relatos, a Amazon está em negociações para investir mais de US$ 10 bilhões na OpenAI — e, se isso realmente acontecer, a avaliação da OpenAI ultrapassaria os US$ 500 bilhões, um valor que nos faz pensar "espera aí, sério?". A transação está sendo apresentada como uma combinação de financiamento e alinhamento estratégico... além da motivação mais simples de todas: a demanda por poder computacional.

O relatório também sugere que a OpenAI pode depender mais da capacidade da AWS e potencialmente começar a usar os chips Trainium da Amazon, transformando-os basicamente em uma cadeia de suprimentos para a próxima onda de escalonamento de modelos (ou pelo menos é o que parece – essas conversas podem ser incertas).
🔗 Leia mais

🧑💻 Os desenvolvedores agora podem enviar aplicativos para o ChatGPT

A OpenAI abriu o envio de aplicativos para revisão e publicação dentro do ChatGPT, juntamente com um diretório de aplicativos integrado, onde os usuários podem navegar pelos aplicativos em destaque ou pesquisar qualquer aplicativo publicado. Os aplicativos podem ser acionados durante uma conversa por meio de @menções ou selecionados no menu de ferramentas — uma experiência semelhante à de aplicativos, mas nativa para chat

Eles também estão lançando um SDK de aplicativos (beta), além de um pacote de recursos para desenvolvedores (exemplos, biblioteca de interface do usuário, guia de início rápido). A monetização está sendo feita com cautela por enquanto — principalmente direcionando o usuário para concluir transações —, mas está bem claro que a OpenAI quer que isso se transforme em um ecossistema real.
🔗 Leia mais

🗞️ Apresentando a OpenAI Academy para Organizações de Notícias

A OpenAI lançou um centro de aprendizagem voltado para jornalistas, editores e diretores de veículos de comunicação, desenvolvido em parceria com organizações como o American Journalism Project e o Lenfest Institute. A proposta: treinamento prático e guias que ajudem as redações a usar a IA sem comprometer a confiança no processo.

A programação de lançamento da Academia inclui “Fundamentos de IA para Jornalistas”, além de casos de uso como pesquisa investigativa/de antecedentes, tradução, análise de dados e eficiência de produção. Há também uma ênfase muito perceptível no uso responsável e na governança interna — porque, sim, alguém tem que escrever o documento de política que ninguém quer escrever.
🔗 Leia mais

⚡ Gemini 3 Flash: inteligência de ponta projetada para velocidade

O Google lançou o Gemini 3 Flash como um modelo mais rápido e econômico, tornando-o o padrão no aplicativo Gemini e no Modo IA da Busca. A proposta é basicamente "Raciocínio de nível profissional, velocidade de Flash", o que soa como um slogan... mas também descreve bem a corrida atual.

A implementação também está sendo disseminada em plataformas para desenvolvedores e empresas (API Gemini, AI Studio, Vertex AI e outras). O subtexto surpreendente: o Google quer esse modelo em todos os lugares onde as pessoas já o utilizam, então os custos de migração começam a parecer um obstáculo intransponível.
🔗 Leia mais

🧩 OpenUSD e NVIDIA Halos aceleram a segurança para robotáxis e sistemas de IA física

A NVIDIA está integrando padrões de simulação e fluxos de trabalho de segurança em uma plataforma de "IA física" mais coerente — robôs e veículos autônomos que precisam sobreviver ao caos do mundo real. Um componente fundamental é a especificação OpenUSD Core 1.0, que visa tornar os pipelines de simulação/3D mais previsíveis e interoperáveis ​​entre diferentes ferramentas.

Em termos de segurança, a NVIDIA destaca o Laboratório de Inspeção de Sistemas de IA Halos (e programa de certificação) para frotas de robotáxis, sistemas de veículos autônomos, sensores e plataformas. Entre os primeiros participantes estão Bosch, Nuro e Wayve, com a Onsemi sendo citada como a primeira a passar na inspeção — um ótimo momento de "desbloqueio de distintivo".
🔗 Leia mais

🧪 Laboratório da UC San Diego avança na pesquisa de IA generativa com o sistema NVIDIA DGX B200

O Laboratório de IA Hao da UC San Diego recebeu um sistema NVIDIA DGX B200 para impulsionar a pesquisa em inferência LLM de baixa latência — a infraestrutura pouco glamorosa que determina se a "IA parece instantânea" ou "a IA parece esperar por uma torrada". A NVIDIA também observa que sistemas de inferência de produção como o Dynamo se baseiam em conceitos do trabalho do laboratório, incluindo o DistServe.

A matéria foca bastante em "taxa de transferência eficiente" versus taxa de transferência — basicamente, taxa de transferência que ainda atinge as metas de latência. Eles também descrevem a divisão do pré-carregamento e da decodificação em diferentes GPUs para reduzir a interferência de recursos, o que é técnico, sim, mas é o tipo de técnica que muda a percepção do produto.
🔗 Leia mais

🏗️ A Hut 8 assina um contrato de capacidade de 245 MW com a Fluidstack como parte de uma parceria de vários gigawatts com a Anthropic

A Hut 8 assinou um contrato de longo prazo para 245 MW de capacidade em seu campus River Bend, arrendando para a empresa de computação em nuvem com IA, Fluidstack, em uma estrutura avaliada em US$ 7 bilhões (com opções que podem elevar o valor consideravelmente). A Anthropic está vinculada como usuária final por meio da parceria mais ampla — trata-se de uma infraestrutura de mineração de criptomoedas se transformando novamente em uma força de IA, só que… em uma escala maior.

Há também um direito de preferência para até 1 GW adicional em River Bend, além do envolvimento de financiamento de grandes bancos e uma garantia do Google. Honestamente, tudo parece dizer: "A IA quer energia e imóveis — e os quer para ontem."
🔗 Leia mais

Notícias de IA de ontem: 16 de dezembro de 2025

Encontre as últimas novidades em IA na Loja Oficial de Assistentes de IA

Sobre nós

Voltar ao blog