196 termos · 15 categorias

O glossário completo

Todos os termos de IA em inglês (o uso padrão) com definições simples.

Conceitos fundamentais

10 termos

Artificial Intelligence (AI)

Área que busca fazer máquinas executarem tarefas que normalmente exigem inteligência humana.

Usado em: ch.01, ch.08, ch.10, ch.11, ch.13, ch.19

Machine Learning (ML)

Subcampo da IA em que um sistema aprende a partir de dados em vez de ser explicitamente programado.

Deep Learning

ML baseado em redes neurais com múltiplas camadas.

Narrow AI

IA especializada em uma única tarefa (ex.: jogar xadrez).

AGI (Artificial General Intelligence)

IA hipotética capaz de realizar qualquer tarefa intelectual humana.

Usado em: ch.16

Superintelligence

IA que superaria amplamente a inteligência humana em todos os domínios.

Symbolic AI

Abordagem clássica baseada em regras e lógica formal.

Model

Representação matemática aprendida a partir de dados.

Usado em: ch.08, ch.11, ch.13

Inference

Fase em que um modelo treinado faz previsões.

Training

Fase em que o modelo aprende a partir dos dados.

Tipos de aprendizado

10 termos

Supervised Learning

Aprendizado a partir de dados rotulados (entrada → saída conhecida).

Usado em: ch.08, ch.14

Unsupervised Learning

Aprendizado sem rótulos; o modelo descobre estruturas ocultas.

Self-supervised Learning

O modelo gera seus próprios rótulos a partir dos dados.

Usado em: ch.06

Reinforcement Learning

Aprendizado por tentativa e erro com recompensas.

Usado em: ch.08

Transfer Learning

Reutilizar um modelo treinado em uma tarefa para outra semelhante.

Few-shot Learning

Aprender a partir de pouquíssimos exemplos.

Zero-shot Learning

Resolver uma tarefa sem ter visto nenhum exemplo durante o treinamento.

Meta-learning

«Aprender a aprender» — treinar um modelo para se adaptar rapidamente a novas tarefas.

Federated Learning

Treinamento distribuído sem centralizar os dados.

Continual Learning

O modelo aprende novas tarefas sem esquecer as anteriores.

Redes neurais

16 termos

Neuron / Unit

Unidade de cálculo de uma rede, inspirada no neurônio biológico.

Layer

Conjunto de neurônios processados em paralelo.

Weights

Parâmetros que ponderam as conexões entre neurônios.

Bias

Termo constante adicionado à soma ponderada.

Activation Function

Função não linear aplicada à saída de um neurônio.

ReLU

Função de ativação muito comum: max(0, x).

Softmax

Converte um vetor em uma distribuição de probabilidade.

Usado em: ch.01, ch.04, ch.05, ch.07

Forward Pass

Cálculo da saída a partir de uma entrada.

Backpropagation

Cálculo dos gradientes para atualizar os pesos.

Usado em: ch.06

Loss Function

Medida do erro entre a previsão e o valor real.

Usado em: ch.01, ch.06, ch.08

Cross-Entropy Loss

Função de perda padrão para classificação.

Usado em: ch.06, ch.13

Optimizer

Algoritmo que conduz a atualização dos pesos (Adam, SGD, etc.).

Learning Rate

Tamanho dos passos durante a descida de gradiente.

Usado em: ch.06

Epoch

Uma passagem completa pelo conjunto de treinamento.

Batch

Subconjunto de dados processado de uma vez.

Usado em: ch.06, ch.18

Arquiteturas

18 termos

Feedforward Network

Rede em que a informação flui em um único sentido.

Usado em: ch.04, ch.05

MLP (Multi-Layer Perceptron)

Rede feedforward clássica com camadas densas.

Usado em: ch.05, ch.15

CNN (Convolutional Neural Network)

Especializada em imagens por meio de filtros convolucionais.

RNN (Recurrent Neural Network)

Processa sequências mantendo um estado interno.

Usado em: ch.04

LSTM

RNN aprimorado para memorizar dependências de longo prazo.

Usado em: ch.04

Multi-Head Attention

Vários mecanismos de atenção em paralelo.

Usado em: ch.04, ch.05

Encoder-Decoder

Arquitetura clássica para tradução e geração.

Usado em: ch.15

Positional Encoding

Injeta a ordem das palavras em um Transformer.

Usado em: ch.05

RoPE

Codificação de posição rotativa moderna, frequente em LLMs.

Usado em: ch.05

Residual Connection

Conexão que pula camadas para estabilizar o treinamento.

Usado em: ch.04, ch.05

Layer Normalization

Normalização para estabilizar o treinamento.

Usado em: ch.04, ch.05, ch.19

Mixture of Experts (MoE)

Vários sub-modelos especializados ativados seletivamente.

Usado em: ch.05

Diffusion Model

Modelo generativo que aprende a remover ruído de uma imagem passo a passo.

GAN (Generative Adversarial Network)

Duas redes em competição (gerador vs. discriminador).

Vision Transformer (ViT)

Transformer aplicado a imagens.

Usado em: ch.05, ch.09, ch.15

State Space Model / Mamba

Arquitetura alternativa ao Transformer para sequências longas.

Processamento de linguagem

13 termos

NLP

Área de processamento de linguagem natural por máquinas.

Usado em: ch.15

BPE (Byte Pair Encoding)

Algoritmo de tokenização muito utilizado.

Usado em: ch.02

WordPiece / SentencePiece

Outros algoritmos de tokenização.

Usado em: ch.02

Word2Vec

Técnica clássica de embeddings de palavras.

Contextual Embedding

Embedding que depende do contexto da frase.

Named Entity Recognition

Identificação de entidades (pessoas, lugares…).

Sentiment Analysis

Detecção do tom ou sentimento de um texto.

Speech Recognition (ASR)

Reconhecimento de voz (áudio → texto).

Text-to-Speech (TTS)

Síntese de voz (texto → áudio).

Usado em: ch.15

Modelos de linguagem e IA generativa

33 termos

Language Model

Modelo que prevê a probabilidade de uma sequência de palavras.

Usado em: ch.01, ch.02, ch.04, ch.16

Foundation Model

Modelo generalista reutilizável para muitas tarefas.

Generative AI

IA capaz de produzir conteúdo (texto, imagem, áudio…).

Instruction Tuning

Fine-tuning para seguir instruções humanas.

Usado em: ch.08, ch.14

DPO (Direct Preference Optimization)

Alternativa simplificada ao RLHF.

Usado em: ch.08, ch.14

Constitutional AI

Método de alinhamento baseado em um conjunto de princípios.

Usado em: ch.08

System Prompt

Instruções gerais dadas ao modelo antes da conversa.

Usado em: ch.09, ch.18

Prompt Engineering

Arte de formular prompts eficazes.

Usado em: ch.12

Chain-of-Thought (CoT)

Incitar o modelo a raciocinar passo a passo.

Usado em: ch.12, ch.17

Few-shot Prompting

Fornecer alguns exemplos dentro do prompt.

In-Context Learning

Capacidade do modelo de aprender a partir de exemplos incluídos no prompt.

Usado em: ch.12, ch.20

Temperature

Controla a aleatoriedade das respostas (baixa = determinística, alta = criativa).

Usado em: ch.01, ch.07, ch.12

Top-k Sampling

Amostragem entre os k tokens mais prováveis.

Usado em: ch.01, ch.07

Top-p / Nucleus Sampling

Amostragem entre um subconjunto que acumula p% de probabilidade.

Usado em: ch.01, ch.07

Greedy Decoding

Escolher sempre o token mais provável.

Usado em: ch.07

Vector Database

Banco de dados que armazena e busca embeddings.

Reasoning Model

LLM otimizado para raciocinar profundamente antes de responder.

Multimodal Model

Modelo que lida com vários tipos de entrada (texto, imagem, áudio…).

Vision-Language Model

Modelo que compreende texto e imagem.

Text-to-Image

Geração de imagens a partir de texto.

LoRA

Técnica de fine-tuning leve baseada em matrizes de baixo rank.

Usado em: ch.14

QLoRA

LoRA combinado com quantização para economizar memória.

Usado em: ch.14, ch.18

PEFT

Família de métodos de fine-tuning eficientes em parâmetros.

Usado em: ch.14

Agentes e ferramentas

8 termos

AI Agent

Sistema de IA que persegue um objetivo por meio de múltiplas etapas e ferramentas.

Tool Use / Function Calling

Capacidade do modelo de chamar funções externas.

Usado em: ch.11

ReAct

Padrão que alterna raciocínio e ação.

Usado em: ch.11

Planning

Capacidade de um agente de decompor um objetivo em sub-tarefas.

Usado em: ch.11, ch.21

Multi-Agent System

Vários agentes que colaboram ou se coordenam.

MCP (Model Context Protocol)

Protocolo padrão para conectar ferramentas a um LLM.

Usado em: ch.11

Computer Use

Capacidade de um agente de usar um computador.

Usado em: ch.11

Agentic AI

IA que age de forma autônoma em um ambiente.

Dados

11 termos

Dataset

Conjunto de dados usado para treinar ou avaliar um modelo.

Usado em: ch.08, ch.14, ch.16, ch.21

Training / Validation / Test Set

Dados para treinar, ajustar e avaliar.

Usado em: ch.06, ch.19

Label / Ground Truth

Resposta correta associada a um exemplo.

Annotation

Ação de associar rótulos aos dados.

Data Augmentation

Geração artificial de mais dados.

Synthetic Data

Dados gerados artificialmente, por exemplo por IA.

Feature

Variável de entrada do modelo.

Usado em: ch.20

Feature Engineering

Criação manual de variáveis relevantes.

One-Hot Encoding

Codificar uma categoria como vetor binário.

Data Drift

Mudança progressiva dos dados em relação ao treinamento.

Data Leakage

Vazamento de informação do conjunto de teste para o de treinamento (resultados enganosamente bons).

Treinamento e otimização

13 termos

Hyperparameter

Parâmetro definido antes do treinamento (taxa de aprendizado, tamanho de batch…).

Cross-Validation

Avaliação por meio de múltiplas divisões dos dados.

Overfitting

O modelo memoriza os dados de treinamento e generaliza mal.

Usado em: ch.06

Underfitting

O modelo é simples demais para captar o sinal.

Regularization

Técnicas que previnem o sobreajuste.

Usado em: ch.06

Dropout

Desativa neurônios aleatoriamente durante o treinamento.

Early Stopping

Interromper o treinamento quando o erro de validação volta a subir.

Vanishing Gradient

Os gradientes ficam pequenos demais para treinar.

Catastrophic Forgetting

O modelo esquece tarefas antigas ao aprender novas.

Distillation

Transferir o conhecimento de um modelo grande para um pequeno.

Usado em: ch.21

Pruning

Remover pesos desnecessários para aligeirar o modelo.

Quantization

Reduzir a precisão numérica dos pesos.

Usado em: ch.07, ch.14, ch.18

Avaliação e métricas

11 termos

Accuracy

Percentual de previsões corretas.

Precision

Das previsões positivas, quantas estão corretas.

Recall

Dos positivos reais, quantos foram recuperados.

F1 Score

Média harmônica da precisão e do recall.

Confusion Matrix

Tabela cruzada de previsões versus valores reais.

ROC / AUC

Curva e área sob a curva para avaliar um classificador.

Perplexity

Medida de incerteza de um modelo de linguagem (menor é melhor).

BLEU / ROUGE

Métricas para tradução e sumarização automáticas.

Usado em: ch.01, ch.06

FID

Medida de qualidade das imagens geradas.

Benchmark

Teste padronizado para comparar modelos (MMLU, HumanEval…).

Usado em: ch.16

Red Teaming

Testes adversariais para encontrar falhas em um modelo.

Aprendizado por reforço

8 termos

Agent

Entidade que toma decisões em um ambiente.

Usado em: ch.11, ch.18

Environment

Mundo no qual o agente atua.

Policy

Estratégia do agente (estado → ação).

Q-Learning

Algoritmo de RL baseado na estimativa de Q.

PPO

Algoritmo de RL muito utilizado, especialmente no RLHF.

Usado em: ch.08, ch.14

Exploration vs Exploitation

Dilema entre explorar o novo e aproveitar o que já se sabe.

Reward Hacking

O agente explora a função de recompensa de formas não desejadas.

Usado em: ch.11

Visão computacional

8 termos

Computer Vision

Área da IA que processa imagens e vídeos.

Image Classification

Atribuir uma categoria a uma imagem.

Object Detection

Localizar e classificar objetos em uma imagem.

Semantic Segmentation

Rotular cada pixel com uma classe.

OCR

Reconhecimento de texto em uma imagem.

YOLO / R-CNN

Modelos clássicos de detecção de objetos.

SAM (Segment Anything)

Modelo universal de segmentação.

NeRF

Representação 3D de uma cena aprendida a partir de imagens.

Segurança, alinhamento e ética

14 termos

AI Alignment

Garantir que a IA persiga objetivos alinhados aos valores humanos.

Usado em: ch.07, ch.08, ch.13, ch.21

AI Safety

Campo de estudo para tornar a IA confiável e segura.

Adversarial Attack

Entrada projetada para enganar um modelo.

Jailbreak

Contornar as salvaguardas de um LLM.

Usado em: ch.08

Prompt Injection

Injeção maliciosa de instruções em um prompt.

Usado em: ch.12

Bias (algorithmic)

Viés nos dados ou nas previsões do modelo.

Fairness

Equidade nas decisões algorítmicas.

Explainability

Capacidade de entender por que um modelo toma uma decisão.

Mechanistic Interpretability

Estudo do funcionamento interno das redes neurais.

Differential Privacy

Método formal de proteção da privacidade.

Deepfake

Conteúdo falsificado por IA.

Misalignment

Desalinhamento entre os objetivos reais e os aparentes do modelo.

Reward Model

Modelo que prevê a qualidade de uma resposta segundo critérios humanos.

Usado em: ch.08, ch.13

AI Governance

Governança e regulação da IA.

Infraestrutura e MLOps

14 termos

TPU

Chip especializado em IA desenvolvido pelo Google.

CUDA

Plataforma de computação GPU da Nvidia.

FLOPS

Operações de ponto flutuante por segundo.

Usado em: ch.18, ch.19

Distributed Training

Treinamento distribuído entre várias máquinas.

Data Parallelism

Mesmos pesos, dados diferentes em cada GPU.

Model Parallelism

O modelo é dividido entre várias GPUs.

PyTorch / TensorFlow / JAX

Principais frameworks de deep learning.

Hugging Face

Plataforma de modelos, datasets e ferramentas de ML.

Usado em: ch.14, ch.18

ONNX

Formato padrão para trocar modelos entre frameworks.

Edge AI

IA executada em dispositivos embarcados.

Latency

Tempo de resposta do modelo.

Usado em: ch.18

Throughput

Número de inferências por segundo.

MLOps

Práticas DevOps aplicadas ao ML.

Conceitos emergentes

9 termos

Emergent Abilities

Capacidades que surgem de repente a partir de um certo tamanho de modelo.

Usado em: ch.19

Scaling

Aumentar tamanho, dados ou computação para obter melhor desempenho.

Usado em: ch.06, ch.17, ch.19, ch.20

Open Weights

Modelo cujos pesos estão disponíveis publicamente.

Frontier Model

Modelo na vanguarda do estado da arte.

Small Language Model (SLM)

Modelo de linguagem compacto, otimizado para eficiência.

Human-in-the-Loop

Inclusão do ser humano no ciclo de aprendizado ou de decisão.

World Model

Modelo interno de um agente que prevê a evolução do ambiente.

Embodied AI

IA incorporada em um corpo físico (robô).

Model Card

Ficha descritiva de um modelo (capacidades, limitações, vieses).

Step by Token — Comprendre les LLMs visuellement