Inteligência Artificial em Ação #3
Um passeio pelas últimas novidades da IA no campo educacional
Bem-vindos a mais uma edição da IAEdPraxis, sua fonte de informação para explorar os caminhos da Inteligência Artificial aplicada à Educação. Nesse terceiro número de “IA em Ação” apresentamos mais resultados de pesquisa, novidades das empresas tech e uma sugestão de leitura.
Como estudantes universitários usam a IA?
Quem melhor responder a esta pergunta do que quem possui todos os dados? A Anthropic, empresa responsável pelo chatbot Claude, divulgou em abril deste ano um estudo analisando centenas de milhares de interações. Como conclusão principal: “a IA está tornando a vida dos educadores mais desafiadoras”.
Entre os principais achados, destacam:
- Terceirização cognitiva de alto nível
Os estudantes estão delegando à IA não apenas respostas rápidas, mas tarefas complexas de criação e análise de conteúdo. O risco é claro: em vez de desenvolverem pensamento crítico próprio, podem se tornar dependentes da capacidade analítica artificial.
- Disparidades disciplinares
A adoção de IA varia fortemente entre áreas do conhecimento. Alguns campos abraçam intensivamente a tecnologia, enquanto outros resistem. Isso cria estudantes com níveis muito diferentes de familiaridade com IA: alguns hiperconectados, outros despreparados para a realidade tecnológica.
- Ambiguidade na integridade acadêmica
O estudo confirma o que educadores já suspeitavam: distinguir entre trabalho “próprio” e assistência da IA tornou-se praticamente impossível. Sem referências claras, professores e estudantes navegam numa zona cinzenta da ética acadêmica.
4. Necessidade de repensar o “aprendizado significativo”
Se a IA produz textos bem formatados e resolve problemas complexos instantaneamente, as avaliações tradicionais perdem sentido. Esta evidência sinaliza para a necessidade de recontextualização das tarefas pedagógicas, enfatizem o processo, originalidade e engajamento pessoal. Porém, esta é uma demanda que exige tempo e apoio institucional frequentemente escassos.
Finalmente, como observou Cristóbal Cobo, há uma meta-questão não anunciada na divulgação deste estudo. Quando a própria empresa criadora da IA publica dados sobre como sua ferramenta está “complicando” a Educação, estamos diante de transparência corporativa ou de uma estratégia para moldar o discurso sobre a regulamentação educacional?
Dito de outra forma, a Anthropic posiciona-se como parceira “sincera” na busca por soluções, mas também é quem lucra com o uso intensivo de sua tecnologia.
A IA Generativa pode prejudicar o aprendizado?
Uma pesquisa com quase 1.000 estudantes turcos do Ensino Médio revelou um paradoxo preocupante sobre a IA na Educação. Ao testaram dois sistemas baseados no GPT-4 para tutoria em Matemática foi observado uma melhoria de desempenho. Porém, essa performance foi p
Explicando: o estudo utilizou o GPT Base (interface padrão) e o GPT Tutor (versão com salvaguardas pedagógicas). Durante as sessões de prática, ambos os sistemas melhoraram significativamente o desempenho dos estudantes, sendo 48% para o GPT Base e impressionantes 127% para o GPT Tutor.
Mas quando foram realizados exames de forma independente, a realidade se mostrou diferente. Os estudantes que usaram o GPT Base tiveram desempenho 17% pior em relação ao grupo de controle, isto é, os estudantes que nem sequer utilizaram a IA.
Dessa forma o estudo definiu “dano educacional” como a inibição da aquisição real de habilidades causada pela dependência excessiva da tecnologia. Estudantes usando o sistema básico frequentemente copiavam soluções completas sem compreender os processos subjacentes, criando uma ilusão de competência. Ao precisarem resolverem problemas similares de forma independente, o desempenho desmoronava.
Por outro lado, o GPT Tutor, com suas salvaguardas pedagógicas, conseguiu mitigar esse dano ao forçar engajamento ativo. Em vez de entregar respostas prontas, oferecia dicas de forma incremental e dando retornos sobre erros. Com isso, manteve o estudante no centro do processo de resolução.

A pesquisa confirma empiricamente suspeitas levantadas por educadores: uma IA mal implementada pode funcionar como “muleta cognitiva”, atrofiando habilidades fundamentais enquanto cria falsa sensação de domínio.
A “ausência de pensamento” na Era da IA
Se o “dano educacional” já é preocupante, outro artigo recente levanta ainda mais suspeitas. Com base no conceito de “ausência de pensamento” de Hannah Arendt e realizando uma crítica filosófica profunda sobre os riscos da IA generativa na Educação os autores alertam para a atrofia do pensamento crítico.
Mas antes é necessário entender o que Arendt queria dizer com “thoughtlessness“ e por que os autores veem nessa ideia uma chave para compreender os perigos educacionais da IA. Este conceito revelaria não simples ignorância, mas como uma condição mais sutil: a incapacidade de alguém pensar por si mesmo ou de considerar perspectivas além daquilo que toma como certo. Para Arendt, essa ausência de pensamento não resulta da falta de inteligência, mas da renúncia ao exercício ativo e crítico da mente.
Imagine uma pessoa que aceita informações sem questionamento, que não se engaja no processo interno de reflexão e que simplesmente reproduz ideias sem examiná-las. Essa pessoa pode ser muito inteligente e bem informada, mas vive numa espécie de “piloto automático” intelectual. É essa condição que Arendt identifica como terreno fértil para o conformismo ideológico e submissão acrítica.
Cabe notar que os autores do artigo fazem uma distinção fundamental que merece atenção: a separação entre “thinking“ (pensar) de “understanding“ ou “knowing“ (compreender/conhecer). Essa diferenciação aponta para uma tensão central na experiência humana de aprendizado.
Pensar, segundo essa perspectiva, é um processo pessoal e interno. É o diálogo que travamos conosco mesmos quando tentamos fazer sentido de algo novo. É aquele momento de perplexidade quando encontramos uma ideia contraditória, ou quando precisamos reconciliar informações conflitantes. Pensar é a busca ativa por significado, um processo muitas vezes desconfortável, em geral invisível aos outros.
Conhecer ou compreender, por outro lado, é o resultado desse processo: a produção de conhecimento organizado, a capacidade de explicar ou aplicar conceitos. É o que conseguimos demonstrar externamente após o trabalho interno do pensamento ter sido realizado.
E aqui chegamos ao cerne da preocupação dos autores. A IA Generativa, argumentam, tem a capacidade única de fornecer respostas sofisticadas e sínteses complexas instantaneamente. Isso cria uma tentação irresistível: por que passar pelo processo laborioso e incerto do pensamento, diante da facilidade de uma resposta imediata e bem formulada?
A preocupação não é simplesmente nostálgica ou tecnofóbica. Os autores sugerem que quando externalizamos consistentemente o processo de pensamento, corremos o risco de atrofiar nossa capacidade de pensar criticamente. Mais perigoso ainda, podemos desenvolver uma dependência de fontes externas de “verdade”, sem desenvolver as habilidades intelectuais que precisamos.
Esta perspectiva nos leva a considerar algumas questões complexas: toda forma de “pensamento assistido” é problemática, ou existem usos da IA que podem efetivamente apoiar em vez de substituir o pensamento crítico? Como podemos distinguir entre ferramentas que amplificam nossa capacidade de pensar e aquelas que a substituem?
Não entre em pânico: a IA não está arruinando a escrita estudantil
É com esta contundência que a professora Jeanne Beatrix Law oferece um antídoto necessário ao alarmismo sobre IA na Educação. Em resposta a um chamativo e muito compartilhado artigo da New York Magazine afirmando que a “fraude desenfreada com IA está arruinando a Educação”, Law apresenta um posicionamento que desafia essa narrativa apocalíptica.
Para iniciar, critica a tendência jornalística de generalizar casos isolados. O artigo original construiu sua argumentação em torno de “Roy” Lee, um autodenominado “trapaceiro serial”, um caso anedótico. Em contrapartida, ela apresenta evidências empíricas: o já citado relatório da Anthropic mostrou que os alunos usam a IA principalmente em tarefas de criação (39,8%) e análise (30,2%), não para tomar atalhos. Dito de outra forma, usam para aprender e não simplesmente para entregar um trabalho pronto.
Assim, segundo a autora este debate precisa ser reenquadrado em termos não de “fila” ou “trapaça”, mas der como a tecnologia pode funcionar como suporte tecnológico. E neste ponto, o conceito de “descarregamento cognitivo”, frequentemente colocado como resultado negativo e uma objeção ao uso da IA (eu mesmo adoto este entendimento, conferir xx da palestra na UFRPE) surge como possibilidade.
Mas como? Ao externalizar certas tarefas para a tecnologia, o estudante pode liberar recursos mentais para pensamento mais complexo. Para estudantes neurodivergentes ou sobrecarregados, a IA representa uma possibilidade de acesso ao trabalho intelectual, não fuga dele. Como Law observa, os estudantes escrevem mais, não menos, quando a página em branco deixa de ser um obstáculo paralisante.
Finalmente, Law defende a experimentação crítica em vez de banir a tecnologia. Particularmente apresenta sua metodologia de “prompting retórico“, visando o uso ético e reflexivo da tecnologia. É um chamado para experimentação responsável, abordagem que ressoa com defesa desta newsletter por visão equilibrada entre otimismo tecnológico e análise crítica.
Simulando seu professor: a IA como oráculo da nota
O Grammarly, ferramenta de auxílio à escrita, anunciou uma funcionalidade que promete revolucionar (ou perturbar) a relação estudante-professor: usuários gratuitos podem agora fazer upload de seus trabalhos junto com informações sobre cursos e docentes para receber retorno personalizado sobre que nota aquele professor específico poderia dar e que comentários poderia fazer.
A pergunta que fica no ar é provocativa: estamos preparados para estudantes que questionem “por que minha nota é diferente do que o Grammarly me deu?”.

Aqui reside uma questão fundamental: para “simular” um professor, o algoritmo precisa de dados. Muitos dados. Informações sobre métodos de avaliação, comentários anteriores, critérios de correção e padrões de feedback. A pergunta incômoda é: de onde vêm esses dados?
Estamos falando de um sistema que potencialmente mapeia e categoriza práticas docentes, criando perfis algorítmicos baseados em informações que podem incluir trabalhos corrigidos anteriormente, comentários públicos ou mesmo análises de outros estudantes. É uma forma sofisticada de vigilância pedagógica disfarçada de ferramenta de apoio.
Uma IA para gerenciar sua vida profissional
Sam Altman, CEO da OpenAi anunciou ontem sua “funcionalidade favorita do ChatGPT até agora”: Pulse, um assistente que trabalha enquanto você dorme, entregando pela manhã um resumo personalizado de atualizações e sugestões em formato de cartões visuais. Conectada a aplicativos como Gmail e Calendar, a ferramenta promete automatizar o planejamento de reuniões, gerar lembretes contextualizados e até rascunhar conteúdos para eventos futuros.
Relacionando com o panorama educacional, vejo que este é o tipo de automação associada a já batida promessa “deixe a tecnologia cuidar da burocracia para você focar no que realmente importa: ensinar”.
Imaginem...todas horas gastas com reuniões pedagógicas, monitorar prazos de entregas, assumidas pela máquina.
Contudo, qualquer possível benefício vem como o preço de vigilância tecnológica. Para funcionar efetivamente, o Pulse exige que a “memória” do ChatGPT esteja ativada, acesso ao histórico de conversas e preferências. Conectada a aplicativos, acessa dados pessoais e profissionais.
Em contexto educacional, isso significa que uma instituição, seja ela pública ou privada, teria acesso às práticas pedagógicas e dinâmicas de seus professores. O que acontece quando um algoritmo “aprende” os padrões de avaliação de um professor? Quando identifica padrões de retorno ou até mesmo vieses inconscientes nas interações? Quando correlaciona o desempenho estudantil com estilos específicos de ensino?

Esses dados, agregados e analisados, transformam-se em métricas de desempenho que podem influenciar avaliações institucionais, progressão de carreira e até mesmo decisões sobre renovação de contratos.
Por enquanto a ferramenta estará disponível apenas no plano Pro do ChatGPT, em dispositivos móveis. Com o tempo, possivelmente chegará aos usuários gratuitos. Mas convém pensar bem sobre o custo e o impacto desta “comodidade”.
Reinventando o livro digital com IA conversacional
A mega-editora O’Reilly lançou o “Answers”, uma funcionalidade de IA Generativa integrada diretamente a livros, cursos e vídeos da plataforma. Mais que uma ferramenta de busca, representa uma transformação: o livro deixa de ser um objeto estático (mesmo em formato digital) e se torna um ambiente interativo de aprendizado.
O conceito é simples e se anuncia como “revolucionário”: em vez de apenas ler, você pode fazer perguntas diretamente ao conteúdo. A IA não oferece respostas genéricas, mas sim informações extraídas especificamente do próprio material, com atribuição clara às fontes originais.
A empresa fez escolhas deliberadas que merecem atenção: limitou a ferramenta a perguntas e respostas (sem conversação prolongada), priorizando eficiência sobre engajamento. Quando não sabe a resposta, a IA admite abertamente, uma raridade no universo dos chatbots.
A arquitetura técnica também revela sofisticação. Usando Retrieval-Augmented Generation (RAG), o sistema não gera respostas do vazio, mas busca documentos relevantes em sua base de dados, seleciona os mais úteis através de múltiplos modelos de IA, e então formula respostas baseadas nesse conteúdo específico.
Essa abordagem minimiza drasticamente as invenções (alucinações), um problema crônico de modelos como GPT quando questionados sobre temas fora de seu treinamento.
Finalmente, a editora afirma que cada resposta é rastreada até suas fontes originais, permitindo que autores sejam compensados quando seu conteúdo é usado pela IA. Ou seja, seria um modelo capaz de reconhecer a propriedade intelectual.
Em conjunto, este tipo de transformação iria mais além da conveniência de acesso ao texto, redefinindo a própria experiência de aprender com a leitura.
Lista de leitura: o oposto da “cola”
Ainda li, mas “The Opposite of Cheating: Supporting Learning Instead of Stopping Cheating”, de Tricia Bertram Gallant e David A. Rettinger propõe uma mudança de perspectiva: em vez de apenas combatermos a fraude, como podemos criar ambientes que naturalmente promovam a integridade e o aprendizado?
Os autores apresentam uma abordagem fundamentada em evidências para repensar a integridade acadêmica em tempos de IA Generativa. O foco não está em vigilância tecnológica ou punições mais severas, mas em entender as motivações por trás da falta de integridade e redesenhar experiências educacionais que a tornem menos atrativa e o aprendizado mais significativo.
Entre os tópicos abordados estão a necessidade de diagnóstico das causas, a comunicação em termos de estabelecer expectativas claras sobre integridade, o design pedagógico visando estruturar cursos e atividades que promovam a honestidade acadêmica, além de uma avaliação equilibrada. Integração de discussões éticas ao processo educativo.
A obra parece ser especialmente relevante para o contexto atual, ao oferecer alternativas práticas para docentes que se sentem sobrecarregados pela tarefa de “policiar” trabalhos e que queiram sair de uma lógica punitivista. E faz isso, propondo a construção de experiências educacionais nas quais a integridade emerge como consequência natural do engajamento genuíno com o aprendizado.






