Conteúdo Programático
Aula 1 - 09/02/2026
parte 1
- Apresentação do Programa do Curso
1. Breve histórico da IA e de suas aplicações (indústria, saúde, serviços jurídicos, mobilidade, dentre outros).
1.1. Surgimento da IA Generativa (IA-G) e suas principais características.
1.2. Como os escritórios e outras empresas vêm usando a IA, na prática
1.3. Como modelos de IA são treinados e porque a supervisão humana é fundamental para que ela seja eficiente e segura.
Docente: Rita Peixoto Ferreira Blum
parte 2
1.4 Primeira camada: fundamentos históricos e conceituais da Inteligência Artificial
1.4.1. Breve linha do tempo da IA: do artigo “Computing Machinery and Intelligence” (Alan Turing) aos marcos do ‘’Machine Learning” com Arthur Samuel.
1.4.2. Evolução para redes neurais e “Deep Learning: backpropagation e avanços que permitiram o aumento de capacidade dos modelos.
1.4.3. Surgimento dos Transformers e mudança de paradigma nos modelos de linguagem.
1.4.4. Intuições básicas sobre como modelos de IA “aprendem”: dados, parâmetros, ajustes e generalização.
1.4.5. Conceitos introdutórios de dados: qualidade, volume, rotulagem e o papel dos conjuntos de treinamento e teste.
1.5. Capacidade, limitações e primeiros desafios éticos.
1.5.1. O que a IA faz bem: reconhecimento de padrões em grandes volumes de dados, síntese de texto, apoio à tomada de decisão.
1.5.2. O que a IA faz mal: contexto social, bom senso, interpretação de nuances jurídicas e compreensão de granularidades do mundo real.
1.5.3. Alucinações em IA: porque modelos “inventam” respostas e quais são seus limites na representação da realidade.
1.5.4. Exemplos de falhas com impacto em pessoas e organizações (erros, discriminações, decisões enviesadas).
1.5.5. Introdução ao design ético e ao conceito de “Future Ethics”: como antecipar riscos e pensar em responsabilidade desde a concepção da solução.
1.6. Segunda camada: como um LLM é construído e treinado
1.6.1. Visão geral das etapas de construção de um LLM, com base em “Build a Large Language Model (from Scratch)”.
1.6.2. Preparação dos dados: coleta, limpeza, filtragem, anonimização e curadoria para treinamento.
1.6.3. Tokenização, representação de texto em números e noções da arquitetura “Transformer”.
1.6.4. Fases de treinamento: pré-treinamento em larga escala, ajuste fino (“fine-tuning”) e alinhamento com “feedback” humano.
1.6.5. Diferença entre IA, “Machine Learning”, “LLM” e IA Generativa aplicada a modelos de linguagem.
Docente: Manoel Brasil
Aula 2 - 10/02/2026
Parte 1
Como a IA pode ser usada no seu dia a dia?
2. Engenharia de “Prompts (prompt engineering)” para Governança e Uso Responsável de IA Generativa
2.1. Introdução à Engenharia de Prompts e sua Relevância Estratégica
2.1.1. O que é Engenharia de “Prompts (Prompt Engineering)”?
2.1.2. Por que a Engenharia de Prompts é crucial para GPAIs (ChatGPT, Claude, Gemini, etc.)?
2.1.3. A relação entre a qualidade do “prompt” e a qualidade/segurança da resposta da IA.
2.1.4. Engenharia de Prompts como ferramenta de governança, mitigação de
riscos e conformidade.
2.2. Fundamentos da Construção de Prompts Eficazes.
2.2.1. Componentes de um “prompt”: Instrução, Contexto, Dados de Entrada, Indicador de Saída.
2.2.2. Técnicas básicas de “prompting”:
a) “Zero-shot prompting” (instrução direta).
b) “Few-shot prompting” (com exemplos).
c) “Chain-of-Thought (CoT) prompting” (raciocínio passo a passo).
d) Definição de Persona/Papel (“Role-playing”).
2.2.3. Clareza, especificidade, concisão e contexto nos “prompts”.
2.2.4. Iteração e refinamento de “prompts”.
2.3. Riscos Associados à Engenharia de Prompts e Estratégias de Mitigação
2.3.1. Injeção de “Prompts e Jailbreaking”. O que são e como funcionam
- Exemplos de ataques e suas consequências
- Estratégias de defesa
2.3.2. Vieses em Prompts e Saídas. Como prompts podem introduzir ou amplificar vieses.
- Técnicas para formular “prompts” neutros.
2.3.3. Privacidade e Confidencialidade
- Evitando dados sensíveis em “prompts”
- Instruções para conteúdo protegido
2.4. Guia de Ferramentas de IA
Docente: André Castro Carvalho
parte 2
2.5. Agentes, “workflows” e automação
2.5.1. Do “chat” ao trabalho: diferença entre usar um LLM como assistente e usar como agente (objetivo, contexto, regras e validação).
2.5.2. Conceitos-base para automação: o que é uma API, para que servem chaves (“tokens”) e como sistemas se conectam no dia a dia.
2.5.3. Arquitetura prática de soluções: agentes + ferramentas (ações), “workflows” (orquestração) e onde entram plataformas como “n8n”.
2.5.4. Demonstração guiada: criar um “agente simples”
Docente: Manoel Brasil
Aula 3 - 11/02/2026
parte 1
3.1. Governança e Segurança no uso de IA-G: diretrizes e Política interna para uso da IA na empresa.
3.2.1 Introdução aos Desafios de Regulação e aos Princípios aplicáveis, considerando leis atualmente existentes, a doutrina nacional e normas estrangeiras. Também precedentes / casos práticos serão mencionados.
3.2.2. Explicabilidade (transparência) – “answerability”;
3.2.3. Responsabilidade demonstrável – “accountability”.
3.2. Mitigando riscos do uso de IA-G
3.2.1. Como foi treinado o seu “Large Language Model – LLM”?
3.2.2 . Foi introduzido algo que pode causar dano? É possível auditar componentes (caminhos tecnológicos percorridos) em um sistema de IA?
3.2.3 Responsabilidade civil – “responsability”. Quando a empresa coloca no mercado sistema com IA “embutida” ela tem que ter testado?
3.2.4. Responsabilidade pelos usos dos sistemas de IA.
Docente: Rita Peixoto Ferreira Blum
Parte 2
3.3. Questões éticas e legais no treinamento de modelos.
3.3.1. Uso de dados protegidos por direito autoral no treinamento de “LLMs”: tensões, debates e desafios de compliance.
3.3.2. Trabalho humano na rotulagem (“labeling”) e na moderação de conteúdo: assimetrias, riscos de exploração e impactos sociais.
3.3.3. Viés de dados: como conjuntos desequilibrados produzem saídas discriminatórias e afetam decisões automatizadas.
3.3.4. Privacidade, proteção de dados pessoais e limites da transparência em modelos de “caixa-preta”.
3.3.5. Dificuldades práticas de saber “o que está dentro do modelo” e de extrair ou remover informações específicas.
Docente: Manoel Brasil
Aula 4 - 12/02/2026
parte 1
4.1. Terceira camada: alinhamento, uso inadequado e impactos no comportamento humano
4.1.1. Problema de alinhamento: diferença entre objetivos da organização, objetivos do usuário e comportamento emergente da IA.
4.1.2 Riscos de uso inadequado: automação de golpes, desinformação, manipulação política e outras formas de abuso da tecnologia.
4.1.3. Casos e hipóteses de IA influenciando comportamento e psicologia das pessoas (recomendações, persuasão algorítmica, “nudges digitais”).
4.1.4. Limites da previsibilidade: porque sistemas complexos podem produzir efeitos inesperados na sociedade.
4.1.5. Relação entre alinhamento técnico e responsabilidade ética nas organizações que utilizam IA.
4.2. Quarta camada: guardrails, segurança e cenários futuros da IA
4.2.1. Conceito de guardrails em IA: camadas de proteção no modelo, na aplicação e nos processos organizacionais.
4.2.2. Técnicas de mitigação de riscos: filtros, checagem de segurança, revisão humana, registro de logs e auditoria de uso.
4.2.3. Iniciativas de controle e segurança para IA mais confiável: padrões internos, políticas de uso e boas práticas de governança.
4.2.4. Conexão entre “guardrails”, alinhamento e “Future Ethics”: como desenhar fluxos de uso que reduzam danos e aumentem benefícios.
4.2.5. Discussão
Docente: Manoel Brasil
Parte 2
4.3. Regulação da IA-G
4.3.1 Revisão da decisão automatizada (realizada pela máquina).
4.3.2. Discriminação algorítmica e vieses (“bias”). A IA reproduz alguns vieses do pensar do ser humano que a programou. Como mitigar estes vieses?
4.3.3. Regras de proteção de dados aplicados a IA: desafios considerando que a LGPD antecede as IAs-G, como o chatGPT
4.3.4. “Privacy by Design”
4.3.5 Tendências regulatórios seja do PL 2338/2023 seja do PL 4/2025 (proposta de atualização do Código Civil que afetará a parte de responsabilidade civil).
4.3.6 “AI Act da União Europeia
4.3.7 Análise de consequências de casos práticos envolvendo IA
Docente: Rita Peixoto Ferreira Blum
-----------------------------------------------------------------------------------------------------------------------------