Notícias de IA, 15 de fevereiro de 2026

Resumo das notícias de IA: 15 de fevereiro de 2026

🦞 O fundador do OpenClaw, Steinberger, junta-se à OpenAI; o bot de código aberto torna-se uma fundação

Peter Steinberger está indo para a OpenAI para impulsionar os "agentes pessoais", enquanto o próprio OpenClaw será alocado em uma fundação para que permaneça de código aberto (e com suporte). Essa divisão é... até que inteligente: contrate o desenvolvedor e mantenha o projeto público.

A proposta do OpenClaw é surpreendentemente prática: triagem de e-mails, documentação de seguros, check-in de voos, as tarefas administrativas do dia a dia. Ele também fez muito sucesso no GitHub, e essa popularidade gerou preocupações com a segurança, especialmente se as pessoas o implantarem de forma descuidada.

🪖 O Pentágono está "farto" da reação negativa da Antthropus ao uso do modelo de IA Claude pelas forças armadas e pode romper relações, segundo reportagem

A principal disputa: o Pentágono quer acesso amplo e "para todos os fins legais", enquanto a Anthropic ainda tenta manter limites rígidos em torno de armas totalmente autônomas e vigilância em massa. Esse tipo de desacordo soa filosófico até que alguém diga: "Podemos substituí-los"

Um detalhe subestimado: as autoridades não querem que o modelo bloqueie repentinamente os fluxos de trabalho no meio do processo, e também não querem negociar casos extremos indefinidamente (justo... mas também preocupante). Há uma tensão real sobre "quem detém o poder" aqui, e não é nada sutil.

🧠 Modelo de startup para prever o comportamento humano

A Simile captou US$ 100 milhões em uma rodada de investimentos para desenvolver um modelo de "aprendizado limitado" com o objetivo de prever o comportamento humano — incluindo, mais especificamente, antecipar possíveis perguntas em eventos como teleconferências de resultados. Uma meta específica, uma ambição enorme, uma combinação um tanto sinistra.

A abordagem se baseia em entrevistas com pessoas reais, além de dados de pesquisa comportamental, e então executa simulações com agentes de IA que visam espelhar preferências reais. É como criar um modelo meteorológico para decisões humanas… o que parece impossível até que se torna realidade.

🧑⚖️ Exclusivo: Casa Branca pressiona parlamentar de Utah para rejeitar projeto de lei sobre transparência em IA

Uma iniciativa estadual de transparência em inteligência artificial no estado de Utah está recebendo forte pressão da Casa Branca, com autoridades pressionando o autor do projeto de lei a não prosseguir com a proposta. O argumento central do projeto é a transparência e a segurança das crianças — algo difícil de contestar em termos puramente estéticos.

Mas a disputa maior é jurisdicional: quem define as regras, os estados ou o governo federal? E sim, é uma confusão — como duas pessoas agarrando o mesmo volante e insistindo que cada uma é a mais calma.

🎬 Após ameaça da Disney, a ByteDance promete impedir o uso não autorizado de propriedade intelectual em sua ferramenta de vídeo com IA

A Disney enviou uma notificação extrajudicial à ByteDance por conta do gerador de vídeos com IA, e a ByteDance afirma estar reforçando as medidas de segurança para evitar o uso não autorizado de propriedade intelectual e imagens. A queixa — supostamente — é que a ferramenta consegue gerar personagens de franquias conhecidas como se fossem apenas... adesivos de domínio público.

É a colisão que todos previram: ferramentas virais de vídeo com IA evoluem rapidamente, estúdios recorrem a processos judiciais e "adicionaremos medidas de segurança" torna-se o pedido de desculpas padrão. Em uma reviravolta, a tecnologia parece mágica, enquanto o lado jurídico se assemelha à gravidade.

Perguntas frequentes

O que significa o fato de o fundador do OpenClaw ter se juntado à OpenAI enquanto o OpenClaw passou a ser uma fundação?

Isso sinaliza uma divisão entre a pessoa que constrói os "agentes pessoais" e o projeto que permanece sob governança pública. A entrada de Steinberger na OpenAI sugere que ele se concentrará no avanço de produtos no estilo de agentes por lá. Colocar o OpenClaw em uma fundação tem o objetivo de mantê-lo de código aberto e com suporte sustentável. Na prática, a mudança visa preservar a confiança da comunidade enquanto o desenvolvedor se concentra onde os recursos estão.

Por que os agentes de IA no estilo OpenClaw se concentram em tarefas como e-mail e papelada?

Como o trabalho administrativo do dia a dia é repetitivo, baseado em regras e demorado, ele se torna um alvo prático para a automação. Os exemplos aqui — triagem de e-mails, documentação de seguros e check-in de voos — são tarefas específicas com critérios de sucesso claros. Esse foco pode fazer com que os agentes se sintam valorizados mais rapidamente do que assistentes com funções mais abrangentes. Isso também reforça a importância de controles de acesso rigorosos quando os agentes lidam com contas pessoais.

Como implantar um agente de IA de código aberto como o OpenClaw sem criar problemas de segurança?

Trate-o como um software capaz de acessar dados sensíveis, e não como um script de teste. Uma abordagem comum é proteger as credenciais, limitar as permissões ao mínimo necessário e manter registros e trilhas de auditoria. Execute-o em um ambiente restrito e separe-o de sistemas de alto valor. Muitas preocupações com segurança decorrem de implantações descuidadas, especialmente quando endpoints ou tokens são expostos sem medidas de segurança robustas.

Por que o Pentágono está insatisfeito com as restrições impostas pela Anthropic ao uso militar do Claude?

A disputa gira em torno do escopo e do controle: o Pentágono quer amplo acesso para "todos os fins legais", enquanto a Anthropic é descrita como mantendo limites rígidos em torno de armas totalmente autônomas e vigilância em massa. Os oficiais também não querem que os modelos bloqueiem fluxos de trabalho no meio do processo ou exijam negociações intermináveis ​​para casos extremos. Essa tensão é menos abstrata do que parece – trata-se de quem decide o que o modelo pode fazer em operações reais.

Como as startups estão tentando prever o comportamento humano com IA e por que isso gera controvérsia?

O exemplo aqui, Simile, está buscando um modelo de "aprendizado limitado" com o objetivo de prever o que as pessoas podem fazer, incluindo antecipar perguntas prováveis ​​em contextos como teleconferências de resultados financeiros. A abordagem descrita combina entrevistas com dados de pesquisa comportamental e simulações usando agentes de IA projetados para espelhar preferências reais. É uma experiência estranha porque muda o foco da IA, transformando-a de uma mera resposta às pessoas em uma previsão de suas ações. O desafio é manter as afirmações dentro de limites claros e evitar o excesso de confiança.

O que acontece quando ferramentas de vídeo com IA geram personagens protegidos por direitos autorais, como no conflito entre ByteDance e Disney?

O padrão observado é familiar: um estúdio emite uma notificação extrajudicial e a plataforma responde reforçando as medidas de segurança para impedir o uso não autorizado de propriedade intelectual ou de imagem. Em muitas ferramentas, essas medidas de segurança significam filtros de conteúdo mais rigorosos, detecção aprimorada de personagens reconhecíveis e aplicação mais clara das políticas de usuário. O conflito subjacente é entre velocidade e responsabilidade – a geração de conteúdo viral se propaga rapidamente, e a aplicação dos direitos autorais age como a gravidade. Espere mais desses conflitos à medida que os geradores de vídeo se disseminam.

Notícias de IA de ontem: 13 de fevereiro de 2026

Encontre as últimas novidades em IA na Loja Oficial de Assistentes de IA

Sobre nós

Voltar ao blog