Começar. É Gratuito
ou inscrever-se com seu endereço de e-mail
Dissertação por Mind Map: Dissertação

1. Conclusão

1.1. Dá pra usar contextual embeddings para coreference, mas tem q otimizar as features

1.2. Trabalhos futuros

1.2.1. Fazer uma forma de incorporar o perceptron estruturado em uma rede única

2. Resultados

2.1. Comparação com o LeaderBoard

2.2. Pq o resultado foi esse ?

2.3. Outras arquiteturas testadas ?

3. Proposta

3.1. Arquitetura escolhida

3.1.1. Falar de outras opções ?

3.1.2. Quanto detalhe colocar ?

3.1.3. hiperparametros

3.1.3.1. detalhar escolha ?

3.2. Análise do Dataset

3.2.1. Tamanho dos clusters

3.2.2. Tamanho das menções

3.2.3. Distancia entre as menções

3.2.4. Dispersão dos Bins ?

3.3. Como foi feito o treino

3.3.1. Embedding

3.3.2. Detecção de menções

3.3.3. Pastas desconsideradas

3.3.3.1. Parece ser erro, já que não há nenhuma cluster anotado e uma inspeção manual em alguns arquivos mostra que deveriam existir clusters

4. Trabalhos Relacionados

4.1. Coreference

4.1.1. Descrever bem o problema

4.1.1.1. Leaderboard atual

4.1.1.2. Exemplo

4.1.1.3. Métricas

4.1.1.3.1. Detalhar ?

4.1.2. Tipos de solução

4.1.2.1. Em etapas

4.1.2.2. End-to-end

4.2. Latent Trees

4.2.1. Descrição do paper de 2014

4.2.1.1. O que são árvores latentes

4.2.1.2. Como gerar árvores candidatas

4.2.1.3. Como selecionar arcos

4.2.1.4. Large Margin

4.3. Contextual Embedding

4.3.1. O que é embedding

4.3.2. Como o embedding é usado na latent tree original

4.3.3. Como fazer embedding context-free

4.3.4. embedding contextual

4.3.4.1. Elmo

4.3.4.2. BERT

4.3.4.2.1. Transformer ?

4.3.4.2.2. Attention ?

4.3.4.2.3. Ganhos em outras tarefas

4.3.4.3. SpanBert

4.3.4.3.1. Diferenças para o BERT

5. Introdução

5.1. NLP

5.1.1. O que é

5.1.2. Como funciona

5.2. Coreference

5.2.1. Definição rápida

5.2.2. Conll 2011/2012

5.2.3. Usar diagramas ?

5.3. Contextual embedding

5.3.1. Como a solução de 2012 usa embedding

5.3.2. o que é contextual embedding

5.3.3. Como pode ajudar ?