13001 - Governança em IA Generativa nas Práticas Jurídica e Empresarial: uso Seguro e Ético

A quem se destina: Advogados(as) e Estagiários(as) Inscritos(as) na OAB, Bacharéis em Direito e Profissionais de outras áreas.
Carga horaria: 10 Horas.
Período: Das 19:00 às 21:30 (segunda a quinta-feira)
Data de início: 09/02/2026
Data de término: 12/02/2026

ID 13001

Período: Dias 09/02/2026, 10/02/2026, 11/02/2026 e 12/02/2026 
Horário: Das 19:00 às 21:30 horas (segunda a quinta-feira)
Docentes: Rita Peixoto Ferreira Blum, André Castro Carvalho e Manoel Brasil
Valor do Investimento: R$ 100,00
 
O(A) aluno(a) inscrito na modalidade Online "ao vivo" deverá obrigatoriamente assistir as aulas através do link que será enviado por e-mail.
 
 

Aulas

 
Conteúdo Programático 
Aula 1 - 09/02/2026  
parte 1 
-       Apresentação do Programa do Curso
1.     Breve histórico da IA e de suas aplicações (indústria, saúde, serviços jurídicos, mobilidade, dentre outros).
1.1.   Surgimento da IA Generativa (IA-G) e suas principais características.
1.2.   Como os escritórios e outras empresas vêm usando a IA, na prática
1.3.   Como modelos de IA são treinados e porque a supervisão humana é fundamental para que ela seja eficiente e segura.
Docente: Rita Peixoto Ferreira Blum
 
parte 2
1.4    Primeira camada: fundamentos históricos e conceituais da Inteligência Artificial
1.4.1. Breve linha do tempo da IA: do artigo “Computing Machinery and Intelligence” (Alan Turing) aos marcos do ‘’Machine Learning” com Arthur Samuel.
1.4.2. Evolução para redes neurais e “Deep Learning: backpropagation e avanços que permitiram o aumento de capacidade dos modelos.
1.4.3. Surgimento dos Transformers e mudança de paradigma nos modelos de linguagem.
1.4.4. Intuições básicas sobre como modelos de IA “aprendem”: dados, parâmetros, ajustes e generalização.
1.4.5. Conceitos introdutórios de dados: qualidade, volume, rotulagem e o papel dos conjuntos de treinamento e teste. 
1.5. Capacidade, limitações e primeiros desafios éticos.
1.5.1. O que a IA faz bem: reconhecimento de padrões em grandes volumes de dados, síntese de texto, apoio à tomada de decisão. 
1.5.2. O que a IA faz mal: contexto social, bom senso, interpretação de nuances jurídicas e compreensão de granularidades do mundo real.
1.5.3. Alucinações em IA: porque modelos “inventam” respostas e quais são seus limites na representação da realidade.
1.5.4. Exemplos de falhas com impacto em pessoas e organizações (erros, discriminações, decisões enviesadas).
1.5.5. Introdução ao design ético e ao conceito de “Future Ethics”: como antecipar riscos e pensar em responsabilidade desde a concepção da solução.
1.6. Segunda camada: como um LLM é construído e treinado
1.6.1. Visão geral das etapas de construção de um LLM, com base em “Build a Large Language Model (from Scratch)”.
1.6.2. Preparação dos dados: coleta, limpeza, filtragem, anonimização e curadoria para treinamento.
1.6.3. Tokenização, representação de texto em números e noções da arquitetura “Transformer”.
1.6.4. Fases de treinamento: pré-treinamento em larga escala, ajuste fino (“fine-tuning”) e alinhamento com “feedback” humano.
1.6.5. Diferença entre IA, “Machine Learning”, “LLM” e IA Generativa aplicada a modelos de linguagem.
Docente: Manoel Brasil
 
Aula 2 - 10/02/2026  
Parte 1 
Como a IA pode ser usada no seu dia a dia?
2. Engenharia de “Prompts (prompt engineering)” para Governança e Uso Responsável de IA Generativa
2.1. Introdução à Engenharia de Prompts e sua Relevância Estratégica
2.1.1. O que é Engenharia de “Prompts (Prompt Engineering)”?
2.1.2. Por que a Engenharia de Prompts é crucial para GPAIs (ChatGPT, Claude, Gemini, etc.)?
2.1.3. A relação entre a qualidade do “prompt” e a qualidade/segurança da resposta da IA.
2.1.4. Engenharia de Prompts como ferramenta de governança, mitigação de
riscos e conformidade.
2.2. Fundamentos da Construção de Prompts Eficazes.
2.2.1. Componentes de um “prompt”: Instrução, Contexto, Dados de Entrada, Indicador de Saída.
2.2.2. Técnicas básicas de “prompting”:
a) “Zero-shot prompting” (instrução direta).
b) “Few-shot prompting” (com exemplos).
c) “Chain-of-Thought (CoT) prompting” (raciocínio passo a passo).
d) Definição de Persona/Papel (“Role-playing”).
2.2.3. Clareza, especificidade, concisão e contexto nos “prompts”.
2.2.4. Iteração e refinamento de “prompts”.
2.3. Riscos Associados à Engenharia de Prompts e Estratégias de Mitigação
2.3.1. Injeção de “Prompts e Jailbreaking”. O que são e como funcionam
- Exemplos de ataques e suas consequências
- Estratégias de defesa
2.3.2. Vieses em Prompts e Saídas. Como prompts podem introduzir ou amplificar vieses.
- Técnicas para formular “prompts” neutros.
2.3.3. Privacidade e Confidencialidade
- Evitando dados sensíveis em “prompts”
- Instruções para conteúdo protegido
2.4. Guia de Ferramentas de IA
Docente: André Castro Carvalho
 
parte 2 
2.5. Agentes, “workflows” e automação
2.5.1. Do “chat” ao trabalho: diferença entre usar um LLM como assistente e usar como agente (objetivo, contexto, regras e validação).
2.5.2. Conceitos-base para automação: o que é uma API, para que servem chaves (“tokens”) e como sistemas se conectam no dia a dia.
2.5.3. Arquitetura prática de soluções: agentes + ferramentas (ações), “workflows” (orquestração) e onde entram plataformas como “n8n”.
2.5.4. Demonstração guiada: criar um “agente simples”
Docente: Manoel Brasil 
 
Aula 3 - 11/02/2026
parte 1
3.1.   Governança e Segurança no uso de IA-G: diretrizes e Política interna para uso da IA na empresa.
3.2.1 Introdução aos Desafios de Regulação e aos Princípios aplicáveis, considerando leis atualmente existentes, a doutrina nacional e normas estrangeiras. Também precedentes / casos práticos serão mencionados.
3.2.2.        Explicabilidade (transparência) – “answerability”;
3.2.3.        Responsabilidade demonstrável – “accountability”.
3.2.      Mitigando riscos do uso de IA-G
3.2.1.        Como foi treinado o seu “Large Language Model – LLM”?
3.2.2 . Foi introduzido algo que pode causar dano? É possível auditar componentes (caminhos tecnológicos percorridos) em um sistema de IA?
3.2.3 Responsabilidade civil – “responsability”. Quando a empresa coloca no mercado sistema com IA “embutida” ela tem que ter testado?
3.2.4.        Responsabilidade pelos usos dos sistemas de IA.
Docente: Rita Peixoto Ferreira Blum
 
Parte 2 
3.3. Questões éticas e legais no treinamento de modelos.
3.3.1. Uso de dados protegidos por direito autoral no treinamento de “LLMs”: tensões, debates e desafios de compliance.
3.3.2. Trabalho humano na rotulagem (“labeling”) e na moderação de conteúdo: assimetrias, riscos de exploração e impactos sociais.
3.3.3. Viés de dados: como conjuntos desequilibrados produzem saídas discriminatórias e afetam decisões automatizadas.
3.3.4. Privacidade, proteção de dados pessoais e limites da transparência em modelos de “caixa-preta”.
3.3.5. Dificuldades práticas de saber “o que está dentro do modelo” e de extrair ou remover informações específicas. 
Docente: Manoel Brasil 
 
Aula 4 - 12/02/2026  
parte 1 
4.1.   Terceira camada: alinhamento, uso inadequado e impactos no comportamento humano
4.1.1. Problema de alinhamento: diferença entre objetivos da organização, objetivos do usuário e comportamento emergente da IA.
4.1.2 Riscos de uso inadequado: automação de golpes, desinformação, manipulação política e outras formas de abuso da tecnologia.
4.1.3. Casos e hipóteses de IA influenciando comportamento e psicologia das pessoas (recomendações, persuasão algorítmica, “nudges digitais”).
4.1.4. Limites da previsibilidade: porque sistemas complexos podem produzir efeitos inesperados na sociedade.
4.1.5. Relação entre alinhamento técnico e responsabilidade ética nas organizações que utilizam IA.
4.2.   Quarta camada: guardrails, segurança e cenários futuros da IA
4.2.1. Conceito de guardrails em IA: camadas de proteção no modelo, na aplicação e nos processos organizacionais.
4.2.2. Técnicas de mitigação de riscos: filtros, checagem de segurança, revisão humana, registro de logs e auditoria de uso.
4.2.3. Iniciativas de controle e segurança para IA mais confiável: padrões internos, políticas de uso e boas práticas de governança.
4.2.4. Conexão entre “guardrails”, alinhamento e “Future Ethics”: como desenhar fluxos de uso que reduzam danos e aumentem benefícios.
4.2.5. Discussão
Docente: Manoel Brasil 
 
Parte 2 
4.3. Regulação da  IA-G
4.3.1 Revisão da decisão automatizada (realizada pela máquina).
4.3.2.        Discriminação algorítmica e vieses (“bias”). A IA reproduz alguns vieses do pensar do ser humano que a programou. Como mitigar estes vieses?
4.3.3.        Regras de proteção de dados aplicados a IA: desafios considerando que a LGPD antecede as IAs-G, como o chatGPT
4.3.4.        “Privacy by Design”
4.3.5 Tendências regulatórios seja do PL 2338/2023 seja do PL 4/2025 (proposta de atualização do Código Civil que afetará a parte de responsabilidade civil).
4.3.6 “AI Act da União Europeia
4.3.7 Análise de consequências de casos práticos envolvendo IA
Docente: Rita Peixoto Ferreira Blum

-----------------------------------------------------------------------------------------------------------------------------

Informações Importantes:
O certificado será emitido para o(a) aluno(a) que:
.Estiver presente nas aulas e assinar a lista de presença.
.Preencher a pesquisa de satisfação.
 
O formulário de presença estará disponível na sala virtual do(a) aluno(a) no Google “Classroom” e no chat da plataforma Meet no começo e no final da aula ao vivo."

Os(As) alunos(as) que apenas assistiram à aula ao vivo e não assinaram a lista de presença, NÃO terão direito ao certificado.

 

Professores

ANDRÉ CASTRO CARVALHO
MANOEL BRASIL ORLANDI
RITA PEIXOTO FERREIRA BLUM

Observações:

1: Para os cursos que permitam alunos não inscritos na OAB, estes deverão apresentar, no primeiro dia de aula, o comprovante de graduação.

2: A Escola poderá, em caráter excepcional, alterar datas e horários das aulas bem como poderá substituir o docente em caso de imprevisto. Reserva-se o direito de cancelar o curso caso não haja um número suficiente de alunos, sem ônus para os inscritos

3: O conteúdo desta página é propriedade da ESA, sendo proibida a reprodução, publicação, distribuição, difusão, total ou parcial de material disponibilizado em qualquer espaço do site da Escola Superior de Advocacia, por meio eletrônico, impresso, fotográfico, gravação ou qualquer outra forma que possa tornar os conteúdos dos materiais acessíveis a terceiros, para fins particulares ou comerciais, bem como disponibilizá-los em serviços on line, websites, fóruns de discussão, e-mails, message board (quadro de mensagens), redes sociais, comunicadores instantâneos e todo e qualquer sítio virtual, sem a prévia autorização dos autores. Todos os direitos reservados.

Valor do investimento

  • Modalidade:
  • Endereço:
  • Telefone:
  • Email: