IA pode ajudar a prevenir lesões em jogadores de futebol
Sistema desenvolvido por pesquisadores da Universidade de Granada mostrou resultados superiores aos obtidos pelos métodos tradicionais
16/09/202517/09/2025
Por redação AIoT Brasil
À medida que o uso de inteligência artificial no trabalho e nas tarefas cotidianas se expande de forma acelerada, aumentam as preocupações dos especialistas a respeito da influência excessiva dos algoritmos nas decisões pessoais e na visão do mundo. Para aprofundar essa discussão, começam a surgir pesquisas que tentam esclarecer uma questão básica: estamos transferindo o pensamento crítico para os chatbots?
Os resultados de alguns desses estudos foram reunidos pela revista digital Undark Magazine, que publicou um artigo que mostra, claramente, a crescente influência dos algoritmos. Em uma das pesquisas, feita pela Microsoft em parceria com a Universidade Carnegie Mellon, dos Estados Unidos, os cientistas concluíram que quanto maior é a confiança das pessoas na IA generativa, menos elas próprias recorrem ao pensamento crítico.
De modo geral, os pesquisadores perceberam que os usuários estão depositando muita confiança em chatbots de IA, que frequentemente fornecem informações imprecisas. “Com tais descobertas vindas do próprio setor de tecnologia, alguns especialistas dizem que isso pode sinalizar que as grandes empresas do Vale do Silício estão considerando seriamente os potenciais efeitos adversos de sua própria IA na cognição humana, em um momento em que há pouca regulamentação governamental”, disse o artigo da revista Undark, que é financiada pelo Programa Knight de Bolsas de Jornalismo Científico do MIT.
“Dependência” e “excesso de confiança” foram termos usados de forma recorrente pelos cientistas que avaliaram a relação entre os usuários e chatbots como o ChatGPT, da OpenAI, e o Claude, da Anthropic. Briana Vecchione, pesquisadora da Data & Society, uma organização sem fins lucrativos de Nova York, observou uma série de preocupações entre os entrevistados em um estudo do qual participou e disse que algumas pessoas aceitam as respostas do chatbot como verdadeiras, sem considerar criticamente o texto produzido pelos algoritmos – o que pode ser perigoso quando a IA aborda questões relacionadas a medicina ou saúde, por exemplo.
Lev Tankelevitch, coautor do estudo feito pela Microsoft, disse que a pesquisa confirmou que, em muitos casos, as pessoas não avaliam os resultados da IA de forma crítica. “Por isso, todos os trabalhos em andamento que tentam entender o impacto da IA na cognição são essenciais para nos ajudar a projetar ferramentas que promovam o pensamento crítico”, acrescentou.
Em junho, segundo a Undark, a cientista do Instituto de Tecnologia de Massachusetts (MIT) Nataliya Kosmyna e seus colegas divulgaram um estudo que avaliou os padrões cerebrais de 54 estudantes universitários e jovens adultos de Boston enquanto escreviam uma redação. A equipe notou diferenças significativas nos padrões cerebrais dos participantes em áreas que não são associadas à medida de inteligência.
Os participantes que usaram apenas IA em suas tarefas apresentaram menor capacidade de recordação e suas redações eram muito parecidas entre si. Além disso, mais de 15% disseram que não sentiam responsabilidade pelo texto das redações que produziram, enquanto 83% tiveram dificuldade para citar trechos das redações que haviam escrito minutos antes. “Isso pinta um quadro bastante terrível”, disse Kosmyna.
#algoritmos#chatbots#cognição humana#IA generativa#pensamento crítico
Sistema desenvolvido por pesquisadores da Universidade de Granada mostrou resultados superiores aos obtidos pelos métodos tradicionais
16/09/2025Treinamento para 200 mil pessoas e um conjunto de serviços para o setor público são algumas das novidades anunciadas pela plataforma
15/09/2025Investimento de 1,7 bilhão de euros na empresa francesa de IA ocorre no momento em que se intensificam os ataques de Trump
15/09/2025