Redução de Caracteristicas

Começar. É Gratuito
ou inscrever-se com seu endereço de e-mail
Redução de Caracteristicas por Mind Map: Redução de Caracteristicas

1. Correlação

1.1. Correlação de Sperman

1.1.1. Ao contrário do coeficiente de correlação de Pearson, não requer a suposição que a relação entre as variáveis é linear

1.2. Link

1.2.1. https://pt.wikipedia.org/wiki/Coeficiente_de_correla%C3%A7%C3%A3o_de_postos_de_Spearman

1.2.2. http://www.ime.unicamp.br/sinape/sites/default/files/EnsinoCorrelacaoDePostos.pdf

1.3. Correlação Linear

1.3.1. Quando uma ou ambas as variáveis são medidas em escala ordinal não é recomendado

2. Seleção de caracteristicas

2.1. Classificação

2.1.1. Redução do tempo de execução do processo de classicação

2.1.2. Aumento da capacidade preditiva do classificaddor

2.1.3. obtenção de uma representação mais compacta do conceito a ser aprendido.

2.1.4. Abordagens de Seleção

2.1.4.1. Wrapper

2.1.4.1.1. utilizando o próprio algoritmo de classicação adotado.

2.1.4.2. Filter

2.1.4.2.1. São independentes do algoritmo de classicação

2.1.4.3. Embedded

2.1.4.3.1. Incorporados ao Algoritmo

2.1.4.3.2. Algoritmos de indução de árvores de decisão

2.2. Abordagens

2.2.1. Ranqueamento de caracteristicas com a base em alguma metrica

2.2.1.1. Depedências estastistica entre caracteristicas

2.2.1.2. Pode levar a seleção de características redudantes

2.2.2. Seleção de subconjunto

2.2.2.1. Procurar todas caracterisitícas boas para o subcojunto otimo

2.2.3. A duas abordagens podem gerar conjuntos significativamente diferentes

2.2.4. 1 não diz o tamanho do subconjunto otimo, 2 diz

2.3. Algoritmos

2.3.1. Comparação de Médias e Variancias

2.3.1.1. Kantardzic

2.3.1.2. Sumariza uma caracteristica em um valor chave

2.3.1.3. Ranqueamento

2.3.1.4. Limitações

2.3.1.4.1. Assume que a distribuições é sempre normal

2.3.2. Baseado no critério de correlação

2.3.2.1. Kantardzic

2.3.2.2. Ranqueamento

2.3.2.3. Usa como métrica a valor do indice de correlação de pearson entre a caracteristica x e caracteristica alvo

2.3.2.4. Limitações

2.3.2.4.1. Mensura as caracteristica isoladamente. Não considera que um conjunto de caracteristicas que isoladamente tem baixa correlação em conjunto possa ter alta correlação

2.3.2.5. Seleção de subconjuntos

2.3.2.5.1. Pode ser construído um índice de correlação para possíveis subconjuntos de características com base na matrix de covariância das medias entre os elementos do subconjunto

2.3.3. Relief

2.3.3.1. Kantardzic

2.3.3.2. Se baseia na relevância de cada caracteristica em um dado conjunto de treino

2.3.3.3. Calcula uma pontuação para capacidade de cada característica em separar as classes

2.3.3.4. Wrapprer

2.3.4. Baseado na métrica de entropia

2.3.4.1. Kantardzic

2.3.4.2. Não supervisionado

2.3.4.3. Ranqueamento

2.3.4.4. Remover caracteríticas irrelevantes ou redudantes não alteram a informação da base

2.3.4.5. Baseado na metrica de similiaridade S

2.3.4.5.1. Proporcionamente inverso a distância entre duas caracteristicas

2.3.4.5.2. Caracteristicas numéricas

2.3.4.5.3. Caracteristicas categoricas

2.3.4.6. Entropia

2.3.4.6.1. Mensura organização/desorganização da informação na base

2.3.4.7. Idéia do algoritimo é eliminar caracteristicas redundantes é avaliar se a entropia da base continuar satisfatória

2.3.4.8. As caracteristica são ranqueada com base na gradual remoção da caracteristica menos importantes

2.3.4.9. Limitação

2.3.4.9.1. Complexidade computacional

3. Considerações

3.1. Kantardzic

3.1.1. Seleção de atributos é preferida a extração quando se deseja manter o significado original das caracterisitcas

4. Extração/Transformação de caracteristicas alterado

4.1. Criar uma caracteristicas que explique duas ou mais

4.2. Linear

4.2.1. Substitui características por características derivadas

4.2.1.1. Componentes das novas características são linearmente dependentes das características originais

4.2.2. Combinação de Caracteristicas de Componentes Principais

4.2.2.1. PCA

4.2.2.2. Kantardzic

4.2.2.3. Combina caracteristicas atribuído pesos as mesmas para forma a caracteristíca derivada

4.2.2.4. Espera-se que existam mais de um vetor de pesos

4.2.3. MDS Multidimesional Scaling

4.2.3.1. Kantardzic

4.2.3.2. Constroí um matrix de distâncias das caracteríticas

4.2.3.2.1. Distância euclidiana

4.2.3.2.2. Distância de Manhattan

4.3. Não Linear

5. Agrupamento (Clusterização)