💸 A Anthropic compromete US$ 100 bilhões para a AWS da Amazon ↗
A Anthropic e a Amazon acabam de consolidar uma das maiores parcerias de infraestrutura de IA do mundo. A Anthropic está investindo mais de US$ 100 bilhões na AWS na próxima década para treinar e operar o Claude.
A Amazon está investindo US$ 5 bilhões imediatamente, com a opção de investir até US$ 20 bilhões adicionais. O acordo também dá à Anthropic acesso aos chips Trainium da Amazon — basicamente, a Amazon dizendo: "por favor, não fiquem apenas alugando a Nvidia para sempre", mas com um cheque bem maior.
O irônico, ou talvez nem tanto, é que a Anthropic continua sob pressão regulatória enquanto se integra cada vez mais à infraestrutura das grandes empresas de tecnologia. Muito organizado, muito complexo.
🧾 A Anthropic supera a OpenAI em gastos recordes de lobby no trimestre ↗
A Anthropic gastou US$ 1,6 milhão em lobby no primeiro trimestre, enquanto a OpenAI gastou US$ 1 milhão. Isso representa um trimestre recorde para ambas as empresas — e um sinal bastante claro de que os laboratórios de IA não estão mais apenas construindo modelos, mas sim atuando em Washington como profissionais experientes.
Os gastos da Anthropic aumentaram drasticamente em comparação com o mesmo período do ano passado, supostamente devido ao escrutínio federal, atritos com o Pentágono e à batalha mais ampla sobre como os governos devem lidar com a inteligência artificial de ponta.
O trabalho de lobby da OpenAI concentrou-se em direitos autorais, segurança cibernética, políticas de IA e infraestrutura em nuvem. Não são exatamente assuntos glamorosos, mas é aí que o futuro começa a ser construído silenciosamente.
🧠 OpenAI lança ChatGPT Images 2.0 ↗
A OpenAI lançou o ChatGPT Images 2.0, com melhor capacidade de seguir instruções, geração de texto mais robusta dentro das imagens e novas habilidades de "raciocínio" que podem usar buscas na web para ajudar a criar recursos visuais mais complexos.
A atualização visa recursos como infográficos, slides, mapas, mangás, textos multilíngues e geração de múltiplas imagens. A linha que separa "ferramenta de imagem" de "pequeno departamento de design em uma caixa" está ficando perigosamente tênue.
A grande mudança é o controle. A OpenAI está tentando fazer com que a geração de imagens seja menos parecida com agitar um globo de neve mágico e mais parecida com dirigir um estagiário de arte levemente energizado pela cafeína.
🎭 O YouTube expande a detecção de deepfakes por IA para celebridades ↗
O YouTube está expandindo sua ferramenta de detecção de semelhanças para que mais figuras públicas possam encontrar vídeos gerados por IA que as imitam e solicitar a remoção.
O sistema procura por usuários com inteligência artificial semelhantes e os sinaliza para as celebridades cadastradas, que podem então solicitar ao YouTube que revise o conteúdo de acordo com sua política de privacidade. Nem todas as remoções serão aprovadas, e é aí que a coisa complica.
É mais um sinal de que os deepfakes deixaram de ser apenas uma questão de "pânico na internet" para se tornarem parte integrante das plataformas. Finalmente, estão identificando os mecanismos envolvidos.
⌨️ A Meta irá registrar as teclas digitadas pelos funcionários para treinar modelos de IA ↗
A Meta está implementando uma ferramenta interna que captura os movimentos do mouse, cliques de botões e pressionamentos de teclas dos funcionários e, em seguida, converte essa atividade em dados de treinamento para modelos de IA.
A ideia é ensinar sistemas de IA a como pessoas reais navegam em softwares e concluem tarefas. Valioso? Sim. Um jazz de escritório um tanto distópico? Também sim, ambas as coisas podem ser verdade.
Esta é a corrida dos agentes em miniatura: as empresas precisam de dados sobre o fluxo de trabalho humano com todas as suas imperfeições, não apenas de textos polidos extraídos da internet. Assim, o teclado se torna uma testemunha. Um tanto sombrio, um tanto inteligente.
🛡️ Usuários não autorizados teriam acessado a ferramenta cibernética Mythos da Anthropic ↗
Um grupo de usuários não autorizados teria obtido acesso ao Mythos da Anthropic, uma ferramenta de IA focada em cibersegurança que deveria ser rigorosamente controlada.
O Mythos não é um produto de uso geral — ele foi projetado para trabalhos cibernéticos avançados, o que torna as alegações de acesso ainda mais controversas. Se forem verdadeiras, levantam questões incômodas sobre como os laboratórios protegem os próprios sistemas que descrevem como sensíveis.
Tudo transmite aquela sensação de "mistério de quarto fechado, mas o quarto é um painel de controle na nuvem". Bem a cara da segurança com IA atualmente.
🧪 A NeoCognition captou US$ 40 milhões em investimento inicial para desenvolver agentes de aprendizagem semelhantes aos humanos ↗
O laboratório de pesquisa em IA NeoCognition levantou US$ 40 milhões em uma rodada de financiamento inicial para construir agentes que aprendem de forma mais semelhante aos humanos.
A startup está em busca de sistemas de IA mais confiáveis e eficientes – uma proposta muito atraente, já que os investidores estão sempre à procura de qualquer coisa que possa tornar os agentes menos vulneráveis em fluxos de trabalho práticos.
É mais um lembrete de que o boom dos agentes inteligentes não se resume apenas à OpenAI, Anthropic e Google competindo entre si. Os laboratórios menores também estão de olho, alguns com uma energia verdadeiramente ambiciosa e promissora.
Perguntas frequentes
Por que a Anthropologie está investindo US$ 100 bilhões na AWS?
A Anthropic está investindo mais de US$ 100 bilhões na AWS na próxima década para treinar e executar o Claude. O acordo concede à Anthropic um acesso mais amplo à infraestrutura de nuvem da Amazon e aos chips Trainium. Ele também reflete o quão caros os sistemas de IA de ponta se tornaram, com o desenvolvimento de modelos cada vez mais dependente de grandes parcerias de computação.
O que o acordo entre a Anthropologie e a Amazon significa para a infraestrutura de IA?
O acordo entre a Anthropic e a Amazon demonstra a crescente dependência da infraestrutura de IA em relação às plataformas de nuvem das grandes empresas de tecnologia. A Amazon está investindo bilhões, enquanto a Anthropic compromete-se com enormes investimentos de longo prazo na AWS. Esses acordos podem ajudar os laboratórios de IA a escalar, mas também levantam questões sobre dependência, concorrência e fiscalização regulatória.
Por que a Anthropic e a OpenAI estão gastando mais com lobby?
A Anthropic e a OpenAI estão investindo mais em lobby porque as políticas de IA estão se tornando essenciais para o futuro delas. O artigo afirma que a Anthropic gastou US$ 1,6 milhão no primeiro trimestre, enquanto a OpenAI gastou US$ 1 milhão. Suas áreas de atuação incluem fiscalização federal, direitos autorais, segurança cibernética, políticas de IA, infraestrutura em nuvem e como os governos devem regulamentar a IA de ponta.
O que há de novo no ChatGPT Images 2.0?
O ChatGPT Images 2.0 é descrito como uma melhoria no seguimento de instruções, na geração de texto dentro de imagens e nas habilidades de "raciocínio" que permitem o uso de buscas na web para recursos visuais mais complexos. A atualização é voltada para infográficos, slides, mapas, mangás, textos multilíngues e geração de múltiplas imagens. A principal mudança reside em um maior controle e menos tentativas e erros na criação de imagens.
Como o YouTube está lidando com deepfakes de celebridades criados por IA?
O YouTube está expandindo sua ferramenta de detecção de semelhanças para que mais figuras públicas possam encontrar vídeos gerados por IA que as imitam. Celebridades cadastradas podem ser alertadas sobre possíveis imitações geradas por IA e solicitar a remoção do conteúdo, conforme a política de privacidade do YouTube. Nem todas as solicitações serão aprovadas automaticamente, portanto, o sistema ainda depende da análise da plataforma e do contexto.
Por que a Meta está gravando as teclas digitadas pelos funcionários para treinamento de IA?
A Meta está implementando uma ferramenta interna que captura os movimentos do mouse, cliques e pressionamentos de teclas dos funcionários e, em seguida, transforma essa atividade em dados de treinamento de IA. O objetivo é ensinar os sistemas de IA a como as pessoas navegam em softwares e concluem tarefas. Em muitos fluxos de trabalho de agentes, esse tipo de dado de atividade humana pode ajudar os modelos a aprender comportamentos práticos, passo a passo.