3. Sobre a criação
● Ciência recente
● Nomeada por John McCarthy em 1956 -
Summer Seminar
● Grande quantidade de problemas em aberto
4. Abrangência
● Aprendizado
● Percepção
● Arte
● Jogos
● Demonstração de teoremas matemáticos
● Finanças
● Medicina
● Web
5. Para o David...
● Teste de Turing
○ Processamento de linguagem natural
○ Representação de conhecimento
○ Raciocínio automatizado
○ Aprendizado de máquina
● Teste de Turing Total
○ Visão computacional
○ Robótica
6. Solução de problemas
● Criação de agentes capazes de planejar para
resolver problemas
● A complexidade de um problema depende da
quantidade de estados que o envolve
● Qual é a melhor
escolha agora?
● Para onde eu vou
depois?
7. Solução de problemas
Qual é a
complexidade
do problema
apresentado
na foto?
Visibilidade
parcial
8. Solução de problemas
● Primeiro caso:
○ O agente sabe o que precisa fazer
○ Pensa e planeja o próximo passo
○ Age de acordo com a melhor solução encontrada,
ignorando as outras
● Segundo caso:
○ O agente não tem noção do caminho completo
(visibilidade comprometida)
○ Fica impossibilitado de encontrar a maneira ótima
para chegar ao seu destino (não conhece as ações
possíveis para aplicar ao ambiente)
9. Solução de problemas
● Funciona quando:
○ O domínio do problema pode ser completamente
observável (é possível saber onde o agente
começa)
○ O domínio do problema deve ser conhecido (ações
possíveis)
○ O domínio do problema deve ser discreto (um
número finito de ações para escolher)
○ O domínio do problema deve ser determinístico (é
possível saber o resultado de uma ação)
10. Aprendizado de Máquina
● Encontrar modelos (como redes de Bayes)
baseados nos dados que o agente possui
● Aprendizado de máquina = aprender
modelos através dos dados
○ O Google utiliza os dados para saber como irá
responder a cada busca de usuário
● Aprendizado supervisionado e não
supervisionado
11. Aprendizado de Máquina
● Vetor de características
x , x , x , ..., x
1 2 3 n
● Previsão do que as características irão
abranger
x , x , x , ..., x
1 2 3 n y
● O algoritmo deve buscar uma função que
utilize as características como entradas e
compare com situações reais onde o vetor
de características é encontrado
12. Aprendizado de Máquina
● Exemplo:
○ Processamento de imagens
○ O vetor de características corresponde a pixels da
imagem
○ O "y" pode ser um identificador, dizendo se o
conjunto de pixels no vetor de características
pertence a uma determinada imagem.
13. Aprendizado de Máquina
Navalha de Occam:
EVERYTHING ELSE BEING EQUAL,
CHOOSE
THE LESS COMPLEX HYPOTHESIS.
● Erro de Generalização (dados
Erro de generalização = erro de
desconhecidos)
treinamento de dados + erro de overfitting
● Erro de treinamento de dado
(dados agrupados da melhor
forma possível -> alta
complexidade)
● Erro de overfitting (onde o
máximo possível de dados é
Complexidade
agrupado)
14. Aprendizado de Máquina
● SPAM!!!
○ Bag of words -> usado para filtro de spam simples
■ Contagem de palavras existentes num dicionário
○ Maximun Likelihood
■ Estima os parâmetros de um problema, dado um conjunto
de dados e um modelo estatístico
○ Bayes Network
■ Grafo acíclico que representa um conjunto de variáveis e
suas dependências condicionais
● Quais as palavras mais comumente encontradas em
um spam?
16. Aprendizado de Máquina
● K Nearest Neighbors
○ Usado em casos em que o número de parâmetros
pode crescer vastamente
○ Algoritmo:
■ Aprendizado: memoriza os dados
■ Atribui um peso ao novo exemplo:
● Encontra os vizinhos mais próximos
● Retorna o peso que aparece na maioria dos vizinhos
próximos
● Perceptron
○ No próximo episódio...
17. Redes Neurais
● Neurônio
○ Célula cerebral que coleta, processa e dissemina
sinais elétricos
○ Constituído por
■ Dendritos = recebem sinais elétricos
■ Axônio = enviam sinais elétricos
■ Sinapses = Pontos de encontro
■ Soma = corpo celular
○ Córtex = tecido formado por redes neurais
19. Redes Neurais
● Formadas por unidades ligadas por vínculos
● Vínculo entre unidades propagam a ativação
entre estas unidades
● Cada vínculo possui um peso
● Cada unidade calcula uma soma de suas
entradas
20. Redes Neurais
● Uma função de ativação é aplicada à soma
apresentada anteriormente, que irá ativar a
saída
21. Redes Neurais
● Função de ativação próxima a 1 quando as
entradas forem corretas e próxima a 0 caso
contrário
● Não-linear
○ Funções lineares fazem a rede neural entrar em
colapso
22. Redes Neurais
● Configurando o peso de desvio e as
entradas de uma unidade, é possível
representar portas lógicas como neurônios
artificiais
23. Redes Neurais
● Os pesos de desvio são os parâmetros da
função
● Ajustando-os, é mudada a função que a rede
representa. Assim acontece o aprendizado
● São comumente utilizadas para classificação ou
regressão
● Existem duas categorias de redes neurais,
baseando-se na alimentação de suas entradas:
○ Direta: representa uma função da sua entrada atual
somente
○ Recorrente: utiliza como entrada suas próprias
saídas
24. Redes Neurais: Perceptron
● Redes perceptron são utilizadas quando os
dados que desejamos analizar podem ser
separados por uma função linear
Uma rede
perceptron só
convege caso os
dados sejam
linearmente
separáveis.
25. Redes Neurais: Perceptron
● Função linear: W1X+W0
● "Chutar" um valor para W1 e W0, que não
serão corretos (a menos que se tenha muita
sorte!)
● Os pesos seguintes serão encontrados a
partir dos pesos anteriores, baseado em
uma função considerando uma taxa de erro
● Após muitas iterações, se houver um
separador linear adequado aos dados, a
rede perceptron irá convergir.