Inteligência Artificial Generativa: avanço ou ameaça? 

Conheça o que essas ferramentas já são capazes de fazer, os riscos do uso irresponsável da IA e os dilemas éticos que envolvem uma tecnologia que não é mais do futuro — é do agora. 

É difícil imaginar uma atividade em que elas já não estejam dando uma mãozinha. As inteligências artificiais generativas — como o ChatGPT, Gemini, DeepSeek e tantas outras — estão cada vez mais presentes no cotidiano de estudantes, profissionais e até famílias. De acordo com a pesquisa “Digital Consumer Insights 2024”, na América Latina, 73% dos usuários digitais já recorreram a alguma ferramenta desse tipo, um índice acima da média global, que é de 66%. Seja para responder uma dúvida, refinar um e-mail, pedir uma receita ou ilustrar um projeto, essas ferramentas aceleram processos e estão transformando a forma como aprendemos, trabalhamos e nos comunicamos. Mas se, por um lado, elas facilitam a rotina, por outro, fizeram surgir debates em relação a como deve ser o uso ético e consciente dessas inovações. 

Novos rumos no mercado de trabalho 

O engenheiro civil Otávio Claro já percebe claramente os benefícios da IA em seu trabalho. “A tecnologia me ajuda a reduzir erros, antecipar problemas e até propor soluções que otimizam tempo e reduzem custos. Não é exagero dizer que a inteligência artificial vem potencializando minha prática como gestor de obras”, afirma. Ele conta que utiliza a IA para consultar normas reguladoras, levantar dados técnicos específicos — como fatores de produtividade, consumo padrão de materiais e índices de desempenho. “Essas informações, que antes exigiam uma boa pesquisa ou dependiam da experiência acumulada da equipe, agora estão a poucos cliques de distância”, destaca o engenheiro. 

Esse cenário se repete no dia a dia da recrutadora Yasmin Peris, que utiliza uma plataforma de inteligência artificial para auxiliar na triagem de currículos. Ela explica que o processo começa com o cadastro da vaga, com todos os requisitos que o candidato precisa atender, incluindo palavras-chave relacionadas às habilidades técnicas e comportamentais desejadas. “Depois, essa plataforma monta um ranking para mim, do primeiro até o último candidato, com base nas palavras-chave presentes no currículo e na compatibilidade com a vaga publicada. Isso facilita muito o trabalho, porque eu já sei que as primeiras pessoas estarão mais adequadas para aquela posição.” Ela ainda destaca que, quando a vaga é preenchida, essa ferramenta garante o envio rápido do feedback para os profissionais que não foram selecionados. “Se a gente não tivesse acesso a essa plataforma, com certeza nosso trabalho seria menos ágil e eficiente, tendo em vista que recebemos centenas de currículos para cada vaga divulgada”, ressalta. 

O que ambos os profissionais relataram sobre o uso da IA em suas rotinas ilustra bem o propósito para o qual essas ferramentas foram desenvolvidas. “A inteligência artificial generativa é um modelo estatístico capaz de identificar padrões para gerar novas informações”, explica Alan Leiser, pesquisador do tema e professor nos cursos de tecnologia da Faculdade Adventista do Paraná (FAP). Ele ressalta que essa é a principal diferença entre a IA generativa e outros tipos de inteligência artificial. “Ao contrário das IAs preditivas, que tentam prever o futuro com base em dados do passado, as generativas são voltadas à criação de novos conteúdos. Muitas, como o ChatGPT, Gemini, DeepSeek e Copilot, funcionam em formato de pergunta e resposta, mas há inúmeras outras aplicações”, esclarece. 

Conforme explica o professor, as habilidades das IAs generativas são aprimoradas gradualmente ao longo do processo de treinamento a que elas são submetidas. “Os desenvolvedores alimentam esses sistemas com grandes volumes de dados e, com base nesses padrões, a IA aprende e começa a gerar respostas. Essas respostas não são necessariamente corretas, mas são coerentes com aquilo que ela aprendeu”, detalha. Conforme os dados gerados por ela vão sendo validados ou corrigidos, a IA se desenvolve mais. “Hoje, as IAs generativas são capazes de produzir, resumir, traduzir ou corrigir um texto, elaborar cronogramas, relatórios ou planos de aula, corrigir códigos de programação, sugerir ideias de conteúdo, gerar imagens e vídeos, entre outras diversas funcionalidades”, exemplifica.  

Um levantamento publicado em 2024 pela Google em parceria com a Ipsos mostrou que, assim como Yasmin e Otávio, 68% dos brasileiros veem com otimismo o uso dessa tecnologia no mercado de trabalho. Contudo, 15% ainda demonstram receio de ter que procurar um novo emprego.  O doutor em Ciências Sociais Aplicadas e mentor de carreiras Lincoln Augusto afirma que esse medo é até legítimo, diante dos desdobramentos que ainda estão por vir nos próximos anos. “Entretanto, enquanto alguém que trabalha e fala de carreira há mais de 15 anos, posso afirmar que esse medo precisa ser encarado mais como um convite à reinvenção do que necessariamente como uma sentença”, analisa. 

Ele explica que a IA tende a automatizar tarefas repetitivas, operacionais e previsíveis, porém dificilmente substituirá competências essencialmente humanas, como empatia, criatividade, pensamento crítico e capacidade de julgamento ético, ainda que seja “treinada” para isso. Por isso, Lincoln defende que, para se manter relevante, o profissional precisará continuar investindo em autoconhecimento, aprendizado contínuo e habilidades interpessoais. “Isso inclui aprender a dialogar com as máquinas — sim, entender o básico da tecnologia —, mas sem perder de vista aquilo que nos faz genuinamente humanos”, enfatiza. 

A IA na sala de aula 

Outro público que tem recorrido às facilidades da IA em sua rotina são os estudantes. Segundo a pesquisa “Inteligência Artificial na Educação Superior”, realizada pela Associação Brasileira de Mantenedoras do Ensino Superior (Abmes) em 2024, entre os universitários – ou aqueles que têm interesse em cursar uma universidade – 70% afirma usar frequentemente essas ferramentas. Entre os benefícios, os estudantes citam a possibilidade de aprender a qualquer momento em qualquer lugar (53%); o acesso a informações e conteúdos mais atualizados e diversificados (50%); e a melhora na eficiência e rapidez na resolução de dúvidas e problemas (49%).  

Mas não é só no apoio aos estudos que a IA tem ganhado espaço. Ela também tem sido usada na produção de trabalhos acadêmicos, provocando não apenas novos debates sobre ética, plágio e originalidade, mas também uma reestruturação nos modos de ensinar e aprender. “Não se trata apenas de identificar se um texto foi ou não produzido com o auxílio de IA, mas principalmente de entender como os estudantes estão usando essas ferramentas e qual o papel delas dentro do processo de aprendizagem”, analisa Sâmella Lima, coordenadora dos cursos de Comunicação no Centro Universitário Adventista de São Paulo em Engenheiro Coelho (Unasp-EC). Ela observa que, em muitos casos, os professores já conseguem perceber certos indícios de textos gerados por IA – como a falta de aprofundamento crítico, argumentos excessivamente genéricos ou a ausência de referências específicas e contextualizadas. “No entanto, o foco não tem sido ‘caçar’ esses usos, mas sim promover uma discussão mais ampla sobre autoria, originalidade e ética na produção acadêmica”, pontua. 

A neuropsicóloga e mestranda em Neurociência Rosângela Morais reconhece o lado positivo do uso da IA no processo de aprendizagem. “As tecnologias facilitadoras, incluindo a inteligência artificial, têm um potencial significativo para transformar a educação, oferecendo recursos personalizáveis, acesso a informações vastas e oportunidades de aprendizado adaptativo”, observa. No entanto, recomenda cautela, por perceber que, assim como ocorre com outras ferramentas, a IA também carrega riscos se for mal aplicada. “A adoção dessas tecnologias não deve ser feita de maneira irrestrita ou acrítica. A dependência de sistemas automatizados, incluindo algoritmos de inteligência artificial, pode, de fato, levar a decisões discriminatórias, incorretas e potencialmente prejudiciais”, detalha. 

Do ponto de vista legal, o advogado e doutor em Direito Estevão Schultz esclarece que, quando uma atividade avaliativa é desenvolvida sem a indicação do uso da IA, isso pode configurar má conduta. Ele explica que o plágio, enquanto infração ética e acadêmica, costuma ser regulado pelas próprias instituições de ensino. No entanto, destaca que o uso da inteligência artificial não precisa, necessariamente, violar essas normas. “Há maneiras corretas de utilizar essas tecnologias, respeitando as regras institucionais e os direitos morais previstos na legislação autoral”, afirma. 

Nesse sentido, a professora Sâmella pondera que é preciso desenvolver práticas pedagógicas que ajudem os alunos a usar essas ferramentas com consciência, responsabilidade e intencionalidade. “Não estamos diante de uma mera ‘moda tecnológica’, mas de uma transformação estrutural na forma como produzimos, acessamos e organizamos conhecimento. Ignorar isso seria não só ingênuo, como prejudicial à formação crítica dos nossos estudantes”, declara. Ela ressalta que a IA não deve ser vista como um inimigo a ser combatido. “Muito pelo contrário! Acredito que a IA precisa ser compreendida em sua complexidade e, a partir disso, incorporada de maneira ética e produtiva ao processo de ensino-aprendizagem”, argumenta. 

O que diz a lei? 

Ainda da perspectiva jurídica, o advogado destaca que o debate sobre o uso indevido da inteligência artificial é bastante amplo. A começar, por exemplo, pelos dilemas que ela desperta em relação a direitos autorais. “A legislação brasileira é regida principalmente pela Lei 9.610/98, que é a Lei de Direitos Autorais. Ela foi criada em outra perspectiva sociojurídica e enfrenta desafios significativos com o avanço da inteligência artificial generativa”, explica. Estevão cita, por exemplo, que a lei exige um componente humano para reconhecer direitos autorais. “Por isso, as obras geradas por IA, sem intervenção criativa direta de uma pessoa, podem não ser protegidas”, pontua.  

Além disso, Estevão pontua que o uso de obras protegidas para treinar algoritmos pode implicar em violação de direitos autorais, particularmente se não houver consentimento. “Discute-se se a reprodução de padrões por IA constitui ‘cópia não autorizada’", frisa. O pesquisador e docente de tecnologia, Alan Leiser, cita um exemplo recente dessa discussão. “Vimos a ‘febre’ das fotos geradas por IA que imitavam o padrão de um estúdio de animação japonês. Como a IA conhece esse padrão? Ela foi alimentada e treinada com as informações e dados disponíveis na internet, aprendeu e se tornou capaz de replicar. Mas não significa que houve uma autorização para que isso fosse feito”, esclarece. 

Já quando se trata, por exemplo, de danos, prejuízos ou infrações cometidas pela Inteligência Artificial, o advogado adverte que, do ponto de vista do Direito, a responsabilidade civil pela criatura (robô, inteligência artificial ou qualquer outro dispositivo) é de seu criador. “Ele é responsável para que a IA mantenha certo nível de eficácia, transparência e coerência em suas ações, de modo a garantir segurança jurídica dos cidadãos, consumidores e empresas”, completa Estevão.  

Contudo, ele aponta que ainda há um longo caminho a ser percorrido. “Não há no Brasil uma norma específica que lide com o tema da responsabilidade ou dos limites éticos em relação ao uso da IA”, observa. Por enquanto, cada caso é avaliado com base na interpretação de como casos semelhantes já foram conduzidos antes. “Há propostas como o Projeto de Lei 21/20 (Marco Legal da IA) que buscam definir diretrizes, mas o tema permanece em debate, exigindo equilíbrio entre inovação e proteção de direitos”, ressalta. 

Deepfake – o perigo das imagens falsas  

Enquanto a legislação tenta acompanhar os avanços e os riscos do uso da IA, novas ameaças já nos colocam em alerta. Uma das aplicações mais preocupantes e potencialmente prejudiciais dessa tecnologia é a criação de vídeos e áudios quase impossíveis de se distinguir dos reais — os chamados deepfakes. O nome vem de "deep learning" (aprendizado profundo da IA) e "fake", que quer dizer falso. “É como se a IA fosse um artista que ‘pinta’ a pessoa em uma situação inventada, fazendo ou dizendo algo que ela nunca fez na realidade, mas de um jeito que parece totalmente verdadeiro”, explica Fernando Jobs, comunicador e criador de conteúdo especialista em tecnologia.  

A manipulação de imagens e som é tão realista que se torna quase indetectável. “A IA gera, do zero, conteúdos que imitam a pessoa, aprendendo seus traços e voz e replicando detalhes sutis, como expressões, movimentos labiais e tom de voz, de forma muito convincente”, detalha o comunicador. Esse tipo de produção pode desafiar a confiança em nossos próprios sentidos. “Diferentemente de montagens antigas, que apresentavam falhas visíveis, o deepfake pode ser muito difícil de identificar a olho nu”, aponta. O professor de tecnologia Alan Leiser, que desenvolve pesquisas no campo da inteligência artificial, reforça essa questão. “A inteligência artificial foi treinada com dados humanos e ela consegue replicar esses dados de forma quase perfeita. Se algo foi treinado para parecer humano, é realmente difícil a gente identificar de cara”, enfatiza. 

O deepfake representa um perigo sério e imediato, principalmente pela sua capacidade de enganar. Fernando explica que essa habilidade da IA se torna uma arma de desinformação na mão de pessoas mal-intencionadas. “Pode-se criar fake news (notícias falsas) com vídeos e áudios de políticos ou especialistas dizendo ou fazendo coisas que não são verdade, manipulando a opinião pública”, exemplifica. Ele também cita outras maneiras como essa tecnologia tem sido usada para prejudicar pessoas. “Criminosos podem se passar por familiares ou chefes usando vozes e imagens falsas para aplicar golpes financeiros. Podem também usar deepfakes para difamar ou chantagear alguém, colocando a pessoa em situações comprometedoras e ameaçando sua reputação”, alerta. 

Apesar da sofisticação dessas produções, ainda existem alguns sinais que podem ajudar a identificar se um vídeo foi gerado por IA. “Veja se a pessoa no vídeo age ou fala de forma estranha, se o som não combina com a boca, ou se o cenário parece forçado”, orienta o comunicador. O professor Alan Leiser acrescenta: “Observe a textura da imagem. Geralmente, as criadas por IA são mais lisas ou emborrachadas. Observe também as mãos, orelhas, pés… A IA ainda comete muitos erros nesses pequenos detalhes”. Contudo, ele destaca que essas orientações, em muitos casos, já não são suficientes. “Estamos chegando num nível de realismo em que não podemos nos prender às dicas de ver na própria imagem se ela é fabricada ou não”, alerta.  

Diante disso, o comunicador Fernando Jobs reforça a importância de adotar uma postura cautelosa e desconfiar de tudo — seja de um vídeo, foto ou áudio — antes de compartilhar. “Duvide do inacreditável. Se o conteúdo é tão chocante, tão incrível ou tão revoltante que parece mentira, provavelmente é. Notícias ‘exclusivas’ e bombásticas que só você e seu grupo receberam devem acender um alerta”, detalha. Ele sugere uma verificação simples: pesquisar na web se o conteúdo aparece em outras fontes confiáveis. “Se só aparecer em blogs ou sites estranhos, cuidado!”, alerta. E propõe ainda um recurso curioso, mas eficaz: “Use o ‘Filtro da Avó’. Pense: se sua avó te contasse isso, você acreditaria sem checar? Adote esse mesmo senso crítico que você usa na vida real para aquilo que vê na internet”, aconselha. 

Se um conteúdo falso for identificado, há medidas práticas que podem ajudar a conter sua disseminação. “Se você já compartilhou, volte e exclua a mensagem o mais rápido possível para interromper a corrente. E não deixe de avisar quem te enviou. Mande uma mensagem gentil informando que o conteúdo é falso, para que ela não o repasse mais”, orienta. Ele também recomenda denunciar o conteúdo nas redes sociais. “Assim, as plataformas podem investigar e remover o deepfake”, complementa. 

A IA não decide — nós decidimos 

É fundamental lembrar que os riscos associados à IA não são responsabilidade da tecnologia em si. O professor de tecnologia Alan Leiser esclarece que a IA não é “boa” ou “má”, porque ela não é humana. “Não há como a IA ter o que um ser humano tem – moral, ética, empatia… Ela pode aprender nosso raciocínio, mas não consegue reproduzir nossas emoções”, explica. Por isso, ele enfatiza que nós, como seres humanos responsáveis pelo desenvolvimento e uso da IA, não podemos evitar os questionamentos que só nós somos capazes de fazer. “O uso irrestrito da IA deve ser discutido. Até onde devemos limitar? Até que ponto devemos liberar? O que estamos fazendo pode causar dano? Pode prejudicar as pessoas?”, provoca. 

O doutor em Ciências Sociais Aplicadas Lincoln Augusto, que também é psicanalista e mentor de carreiras, aponta que o papel do indivíduo, nesse novo cenário, é o de orientador do uso responsável da tecnologia. “A IA pode até gerar conteúdo, mas é fato que ela ainda depende de princípios, intenções e direções fornecidas por nós – o famoso prompt de comando”, observa. Diante do temor de sermos substituídos por máquinas, ele destaca aquilo em que a IA jamais poderá ocupar nosso lugar. “O que nos torna insubstituíveis é justamente a capacidade de sentir, discernir e atribuir sentido às diversas e diferentes experiências pelas quais estamos expostos. Somos nós que damos direção à tecnologia — ou deveríamos ser pelo menos”, pontua.  

Nesse contexto, desenvolver um estado de consciência crítico é essencial: questionar, checar fontes, refletir sobre os impactos sociais e culturais dessas ferramentas. “A ética não pode e nem deve ser terceirizada. O uso responsável da IA passa por saber o que queremos construir como sociedade e qual papel esperamos que a tecnologia desempenhe nisso. Por isso, a pergunta chave não é apenas o que a IA pode fazer, mas que ela deve fazer — e essa resposta só pode vir de nós”, conclui. 

Para quem ficou curioso sobre o que a própria inteligência artificial “pensa” sobre tudo isso, fizemos uma pergunta ao ChatGPT: “Qual a responsabilidade do ser humano no uso da IA?” 

E a resposta foi: “Como IA, eu não tenho valores, consciência ou intenção — apenas sigo comandos e padrões aprendidos a partir de dados. Isso significa que a responsabilidade ética, legal e social pelo que é feito com a tecnologia é inteiramente humana. Como inteligência artificial, posso oferecer respostas, gerar conteúdos e apoiar processos de aprendizagem, mas cabe a você — humano — decidir o que fazer com essas informações. A tecnologia pode ser uma ponte, mas o discernimento continua sendo seu.” 

Fontes: 

https://www.correiodopovo.com.br/jornal-com-tecnologia/jogos-on-line-chatgpt-e-5g-estudo-in%C3%A9dito-revela-consumo-digital-na-am%C3%A9rica-latina-em-2024-1.1541332?utm_source=chatgpt.com

https://www.estadao.com.br/economia/coluna-do-broad/america-latina-tem-maior-numero-de-usuarios-de-ia-generativa

https://forbes.com.br/carreira/2023/09/85-dos-brasileiros-quer-integrar-a-ia-ao-seu-trabalho-aponta-linkedin

https://forbes.com.br/forbes-tech/2025/01/54-dos-brasileiros-utilizaram-ferramentas-de-ia-em-2024

https://agenciabrasil.ebc.com.br/educacao/noticia/2024-08/sete-cada-dez-estudantes-usam-ia-na-rotina-de-estudo