🏫 Em algumas escolas, chatbots interrogam os alunos sobre seus trabalhos. Mas a revolução da IA está preocupando os professores ↗
Algumas escolas australianas estão testando uma versão mais incisiva do "mostre seus cálculos" - os alunos terminam uma tarefa e, em seguida, um chatbot de IA os questiona em uma interação para verificar se eles entenderam o que entregaram. É basicamente uma prova oral, mas com uma máquina perguntando "o que você quer dizer com isso?" até que você comece a se sentir desconfortável.
A maior preocupação é a implementação desigual: um estudo do setor alerta que os que adotarem a tecnologia rapidamente poderão disparar na frente enquanto outros ficarão para trás, criando um sistema educacional de duas velocidades. Os professores também continuam a levantar as preocupações já conhecidas — e ainda sérias —: privacidade, bem-estar e como evitar que a "ajuda da IA" se transforme em "a IA fez tudo".
👮 A Polícia Metropolitana está usando ferramentas de IA fornecidas pela Palantir para identificar casos de má conduta policial ↗
A Polícia Metropolitana de Londres está usando inteligência artificial fornecida pela Palantir para analisar padrões internos da força de trabalho — doenças, ausências, horas extras — buscando sinais que possam estar correlacionados com problemas de padrões profissionais. A iniciativa é apresentada como um projeto piloto com prazo determinado e, crucialmente, a Polícia Metropolitana afirma que as decisões finais ainda são tomadas por humanos… mas esse “ainda” representa um trabalho considerável.
A Federação Policial não está nada satisfeita, chamando a medida de "suspeita automatizada" e alertando para o risco de ferramentas opacas interpretarem erroneamente estresse e carga de trabalho como delitos. É um daqueles momentos em que a tecnologia parece ótima na teoria, mas quando você imagina como ela se comporta na prática, a situação se torna bem desagradável.
🛡️ Órgão de proteção de dados do Reino Unido alerta sobre imagens geradas por inteligência artificial em comunicado conjunto ↗
O ICO do Reino Unido juntou-se a outros reguladores em um alerta conjunto sobre imagens geradas por IA que retratam pessoas identificáveis sem consentimento — basicamente: não trate "é sintético" como uma desculpa mágica. A mensagem é criar salvaguardas desde o início e envolver os reguladores, em vez de adotar a clássica estratégia tecnológica de lançar o produto primeiro e pedir desculpas depois.
Eles também destacam os riscos maiores para as crianças, o que faz sentido, porque uma vez que essas coisas se espalham, é como tentar colocar glitter de volta em um pote. A ideia principal é que a privacidade e a dignidade devem sobreviver ao ciclo da moda, ou pelo menos é o que parece.
🪖 O secretário de Defesa dos EUA, Hegseth, convoca o CEO da Anthropic para uma reunião difícil sobre o uso militar do míssil Claude, segundo reportagem da Axios ↗
A Reuters informa que o Secretário de Defesa dos EUA deverá se reunir com o CEO da Anthropic para o que está sendo descrito como uma conversa mais acalorada sobre o uso militar de Claude. O Pentágono supostamente quer que os principais fornecedores de IA disponibilizem seus modelos em redes classificadas com menos restrições — e a Anthropic tem resistido a qualquer flexibilização das medidas de segurança.
O subtexto sugere um dilema clássico de "agir rápido, mas... com mísseis envolvidos". Se as partes não conseguirem chegar a um acordo sobre limites, a relação poderá ficar tensa ou até mesmo romper — contudo, a Anthropic também sinaliza que as conversas com o governo continuam construtivas, então a situação está tensa, mas ainda não é o fim definitivo do relacionamento (ainda).
🧠 ChatGPT - Notas de lançamento ↗
As notas de lançamento da OpenAI apontam para uma janela de contexto expandida para o modo "Pensando" — o que significa que você pode fornecer mais texto ao modelo e manter sequências de falas mais longas coerentes, sem que ele descarte detalhes anteriores. Se você já viu um modelo "esquecer" algo que você acabou de dizer (que frustração!), essa novidade foi criada justamente para resolver esse problema.
É uma atualização bem técnica que muda discretamente o que é prático: documentos mais longos, projetos mais complexos, sessões de pesquisa mais extensas. Não é glamoroso, mas é o tipo de mudança na infraestrutura que, de repente, faz a casa toda parecer maior.
Perguntas frequentes
O que significa quando as escolas usam chatbots para "interrogar" os alunos sobre as tarefas?
Em algumas escolas australianas, os alunos concluem uma tarefa e, em seguida, interagem com um chatbot de IA que avalia seu raciocínio. Funciona como uma prova oral, incentivando os alunos a explicar o que escreveram e por quê. O objetivo é verificar a compreensão, não apenas a produção do texto. Também pode revelar lacunas quando um aluno não consegue defender argumentos importantes.
Como os chatbots de IA nas escolas poderiam criar um sistema educacional de "duas velocidades"?
Um estudo do setor alerta que as escolas que adotam a tecnologia rapidamente podem sair na frente, enquanto as que adotam mais lentamente ficam para trás. Se algumas escolas implementarem ferramentas de IA para avaliar a compreensão, apoiar a aprendizagem ou impedir o uso indevido, poderão melhorar os resultados mais rapidamente. Outras podem não ter orçamento, capacidade de pessoal ou clareza nas políticas para implementar sistemas semelhantes. Essa adoção desigual pode ampliar as lacunas existentes em termos de recursos e desempenho.
Como os professores estão tentando impedir que a "ajuda da IA" se transforme em "a IA fez tudo"?
Uma abordagem comum é direcionar a avaliação para o processo e a explicação, e não apenas para o produto final. Questionamentos no estilo chatbot, rascunhos, reflexões ou verificações orais podem dificultar a entrega de trabalhos que você não compreende. Os professores também podem estabelecer limites mais rígidos para o auxílio aceitável, como brainstorming versus reescrita completa. A ênfase permanece na demonstração de compreensão, e não na fiscalização de todas as ferramentas.
Que questões de privacidade e bem-estar surgem quando a IA é usada em salas de aula?
Os professores continuam a expressar preocupação sobre quais dados dos alunos são coletados, onde são armazenados e quem pode acessá-los. Há também preocupações com o bem-estar dos alunos, caso se sintam constantemente monitorados ou pressionados por questionários automatizados. As crianças representam um grupo de risco especial, pois informações sensíveis podem se espalhar ou permanecer nos sistemas de maneiras inesperadas. Muitas escolas buscam implementar medidas de segurança desde o início, em vez de tentar adaptá-las posteriormente.
Como a Polícia Metropolitana está usando a IA fornecida pela Palantir para identificar possíveis condutas impróprias de policiais?
A Polícia Metropolitana de Londres está usando inteligência artificial fornecida pela Palantir para analisar padrões da força de trabalho, como doenças, ausências e horas extras. O objetivo é identificar sinais que possam estar correlacionados com problemas de padrões profissionais. Trata-se de um projeto piloto com prazo determinado, e a Polícia Metropolitana afirma que as decisões ainda são tomadas por humanos. Críticos argumentam que a ferramenta pode parecer uma "suspeita automatizada" se interpretar o estresse como uma conduta inadequada.
Por que os sindicatos policiais estão preocupados com a "suspeita automatizada" gerada por ferramentas de supervisão baseadas em IA?
A preocupação da Federação Policial é que modelos opacos possam inferir má conduta a partir de padrões com explicações benignas. Picos de carga de trabalho, problemas de saúde e estresse podem alterar a frequência ou as horas extras sem implicar em irregularidades. Se a lógica da ferramenta não for transparente, fica mais difícil para os policiais contestarem as sinalizações ou para os gestores calibrarem limites justos. Mesmo com decisões humanas, sinais automatizados ainda podem influenciar os resultados.
Sobre o que alerta o ICO do Reino Unido em relação às imagens de pessoas identificáveis geradas por IA?
A autoridade de proteção de dados do Reino Unido juntou-se a outros reguladores ao alertar que "sintético" não significa isento de consequências. Se uma imagem gerada por IA retrata uma pessoa identificável sem o seu consentimento, os riscos à privacidade e à dignidade ainda se aplicam. Os reguladores enfatizam a importância de criar salvaguardas desde o início e de envolver os órgãos de supervisão, em vez de lançar o conteúdo primeiro. Eles também destacam os riscos elevados para crianças, onde os danos podem aumentar rapidamente assim que o conteúdo se dissemina.
O que está por trás da suposta pressão do Pentágono sobre a Anthropic em relação ao uso militar de Claude?
A Reuters informa que o Secretário de Defesa dos EUA deve se reunir com o CEO da Anthropic para discussões mais rigorosas sobre o uso militar do Claude. O Pentágono supostamente quer que os principais fornecedores de IA disponibilizem seus modelos em redes classificadas com menos restrições. A Anthropic tem resistido a medidas de segurança mais flexíveis, apontando para um conflito sobre os limites de proteção. A relação parece tensa, embora ambos os lados indiquem que as negociações continuam construtivas.
O que mudou nas notas de lançamento do ChatGPT em relação à duração do contexto no modo "Pensando"?
As notas de lançamento da OpenAI apontam para uma janela de contexto expandida para o modo "Pensando", permitindo que mais texto seja exibido em uma única conversa. Na prática, isso pode ser útil para documentos longos, projetos complexos e pesquisas com várias etapas, onde os detalhes iniciais são importantes. Trata-se de uma melhoria estrutural, e não de um recurso chamativo. O principal benefício é a redução da perda de detalhes em sessões mais longas.