Sobre ter Espírito Crítico…

Spread the love

Modelos como Chat GPT-3.5/GPT-4.0 e outros disponíveis no mercado atualmente, representam um marco significativo na evolução da inteligência artificial. O GPT-4.0 por exemplo, incorpora algoritmos mais avançados que visam aprimorar a precisão e a relevância das respostas, o que pode resultar numa capacidade maior de entender contextos complexos em comparação com o GPT-3.5, mas essas melhorias também podem introduzir novas inconsistências, especialmente em tarefas que exigem nuances interpretativas. Perguntas sobre eventos recentes podem ser respondidas de forma mais precisa pelo GPT-4.0, enquanto o GPT-3.5 pode fornecer informações desatualizadas, mas isso ainda não significa que as respsotas do GPT-4.0 estarão absolutamente correta em 100% dos casos.

A capacidade de gerar respostas rápidas e abrangentes tornou-se uma ferramenta valiosa para diversas áreas, mas é preciso que o usuário tenha senso crítico e faça sempre uma avaliação crítica das informações fornecidas por essas IAs. A precisão e a confiabilidade dos dados gerados podem variar, e a ausência de verificação pode levar à disseminação de informações incorretas ou enviesadas.

Uma preocupação que tem tomado a mente de muitos professores das mais diversas áreas de ensio é como garantir que seus alunos aprendam efetivamente em vez de transferir sua responsabilidade como futuros profissionais para as IAs, tornando-se totalmente dependentes delas.

É assim que nas universidades têm-se falado sobre desenvolver um Espírito Crítico ao utilizar Inteligências Artificiais e só existe uma receita mágica pra isso: antes de consultar uma IA, entender do tema que será abordado, ser capaz de elaborar bem a questão e de saber avaliar se a resposta recebida é coerente ou se tem falhas.

Empoderar os usuários a fazerem um uso consciente e responsável dessas ferramentas tecnológicas envolve uma abordagem proativa e crítica. Ao adotar práticas de verificação e validação, os usuários podem maximizar os benefícios das IAs enquanto minimizam os riscos associados a informações incorretas ou enviesadas.

Embora alguns professores tenham desenvolvido um medo quase irracional das IAs combatendo-as totalmente – comportamento que Jean Delumeau explica maravilhosamente em “A História do Medo no Ocidente” – outros, bastante mais audaciosos, criativos e dispostos a acompanhar as evoluções tecnológicas irreversíveis que temos experimentado nos últimos tempos, propõem incorporar esses chats ao processo de aprendizagem.

Uma das propostas mais interessantes é virar o feitiço contra o feiticeiro: oferecer a pergunta e a resposta gerada pelo prompt ao estudante e pedir que avalie se a resposta está correta ou não e explique o que não está bem nela, convertendo a IA em aliada em seu desenvolvimento.

Para não cair na armadilha das repetição robotizada das respostas oferecidas pela IA, consultar fontes adicionais – e saber consultá-las bem – torna-se fundamental, pois ao comparar as respostas da IA com essas fontes confiáveis e reconhecidas é possível verificar a veracidade dos dados. Em outras palavras, é preciso saber do que se está perguntando para saber julgar a resposta.

Como professora de História da Arte, uma amiga e coordenadora do Laboratório de Estudos de Arte Antiga, o LEDA – do qual faço parte desde 2020 – experimentou fazer uma pergunta ao Chat-GPT 3.5. A resposta seria posta em um teste onde os alunos teriam que dizer se havia algo errado, o que estava errado e explicar qual seria o correto.

Na primeira pergunta, BINGO! Um erro!
Na segunda pergunta, uma resposta que pouco clara…
Na terceira pergunta, BUG!

É claro que não direi qual era a pergunta e qual era a resposta mas o fato é que, um aluno que tenha prestado a devida atenção nas aulas e tenha perspicácia suficiente para fazer uma busca simples de cinco minutos, encontrará a resposta… Desde que tenha Espírito Crítico…

Translate »