Breve Resumo
Este vídeo do Gran Cursos Online, apresentado pelo professor Víctor Kessler, oferece uma revisão focada para a reta final de preparação para o Concurso Nacional Unificado (CNU) Bloco 3, com ênfase em Tecnologia da Informação. O professor destaca a importância de revisar os eixos temáticos, especialmente os eixos 1, 2 e 5, que são cruciais para a aprovação. Além disso, o vídeo aborda conceitos essenciais de Machine Learning e Inteligência Artificial Generativa, incluindo Large Language Models (LLMs), seus processos de treinamento, problemas enfrentados e técnicas como RAG (Retrieval-Augmented Generation) e engenharia de prompts.
- Revisão dos eixos temáticos 1, 2 e 5 como diferencial para a prova.
- Foco em Machine Learning e IA Generativa, incluindo LLMs e seus processos de treinamento.
- Exploração de problemas como alucinação e viés algorítmico.
- Apresentação de técnicas como RAG e engenharia de prompts para melhorar a performance dos LLMs.
Visão Geral dos Assuntos [3:12]
O professor Víctor Kessler inicia o vídeo apresentando uma visão geral dos assuntos a serem revisados para o CNU Bloco 3. Ele destaca a importância da parte inicial do conteúdo, que abrange desafios do estado de direito, políticas públicas, transformação digital, ética e integridade, diversidade e inclusão na sociedade, administração pública federal e trabalho em tecnologia. Kessler enfatiza que os eixos temáticos 1, 2 e 5 são cruciais para a aprovação, especialmente para candidatos da área de TI, e que o não domínio desses eixos pode levar à reprovação.
Eixos Temáticos e Áreas de Foco [7:47]
O professor detalha os eixos temáticos, começando pelo eixo 1, que abrange ciência, tecnologia e sociedade. No eixo 2, ele destaca a importância das políticas públicas de ciência, tecnologia e inovação, com ênfase no marco legal de CTI, que pode render várias questões na prova. O eixo 3, liderado pelo professor Darlan, foca em gerenciamento de projetos, incluindo Scrum e Kanban. Kessler aconselha os candidatos de TI a focarem em gerenciamento de projetos, pois Scrum e Kanban já devem ser dominados. Ele também menciona a importância da ciência de dados, IA, Machine Learning e análise preditiva, além de governança de dados e LGPD.
Revisão de Machine Learning [11:15]
Kessler oferece uma revisão detalhada de Machine Learning, explicando que é uma área da inteligência artificial que se concentra no desenvolvimento de máquinas que aprendem a partir da experiência, ou seja, de bases de dados históricas. Ele diferencia o aprendizado não supervisionado, onde a máquina extrai padrões sem rótulos predefinidos, do aprendizado supervisionado, que utiliza rótulos para guiar o aprendizado. O professor também aborda o aprendizado por reforço, onde um agente interage com o ambiente e é recompensado ou penalizado por suas decisões. Ele explica que o aprendizado supervisionado se divide em classificação (rótulos categóricos) e regressão (previsão de números).
Inteligência Artificial Generativa e LLMs [24:21]
O professor aborda os Large Language Models (LLMs), que são IA generativas treinadas com grandes volumes de texto para entender e gerar linguagem natural. Ele explica que os LLMs evoluíram do processamento de linguagem natural (PLN) e são capazes de classificar textos e realizar análise de sentimentos. Kessler detalha o processo de treinamento dos LLMs, que envolve a análise estatística de textos para prever a próxima palavra em uma sequência. Ele menciona alguns LLMs famosos como GPT, Gemini, BERT, Llama e Claude, e explica que esses modelos possuem bilhões ou trilhões de parâmetros.
Processo de Treinamento dos LLMs [31:45]
Kessler descreve o processo de treinamento dos LLMs, que consiste em três etapas: pré-treinamento (aprendizado não supervisionado com todos os textos do mundo), ajuste fino (treinamento supervisionado para resolver tarefas específicas) e RLHF (aprendizado por reforço com feedback humano). Ele explica que o pré-treinamento envolve a previsão de palavras ou pedaços de palavras a partir do contexto, enquanto o ajuste fino melhora o modelo para resolver problemas específicos. O RLHF utiliza o feedback humano para aprimorar a clareza, utilidade e segurança das respostas geradas pelos LLMs.
Problemas e Soluções com LLMs [37:53]
O professor discute os problemas enfrentados pelos LLMs, como alucinação (invenção de informações), dependência de dados de treino e viés algorítmico. Ele explica que o viés algorítmico ocorre quando a máquina parte de um pressuposto errado para gerar informações, resultando em decisões enviesadas. Kessler exemplifica o viés algorítmico com casos de dificuldade em desenhar pessoas negras com perfeição e associação de profissões a raças específicas. Ele também aborda o custo computacional dos LLMs e a importância de entender que eles não possuem consciência real.
RAG (Retrieval-Augmented Generation) e Engenharia de Prompts [42:39]
Kessler apresenta o RAG (Retrieval-Augmented Generation), uma técnica que combina modelos generativos de linguagem com a recuperação de dados para diminuir a alucinação. Ele explica que o RAG envolve a criação de uma base de dados com informações relevantes e a pesquisa nessa base antes de gerar uma resposta. O professor também aborda a engenharia de prompts, que consiste em construir prompts que diminuam o risco de alucinação e tragam informações mais confiáveis e detalhadas. Ele menciona conceitos como few-shot prompts (entrega de exemplos) e chain of thought (fazer a máquina pensar passo a passo) como estratégias para melhorar a qualidade das respostas geradas pelos LLMs.