Mappa Lavori

Get Started. It's Free
or sign up with your email address
Rocket clouds
Mappa Lavori by Mind Map: Mappa Lavori

1. Human Computer Interaction

1.1. Interaction-Design.org

1.2. Multimodalità

1.2.1. Multimouse e multitastiera

1.2.1.1. Emulazione dei principali gesti MultiTouch con due mouse

1.2.1.2. Test con C# e raw_input

1.2.1.3. Multimouse, multitastiera, multischermo: più workstation sullo stesso computer

1.2.2. MuMo

1.2.2.1. Python Multimodal Hub

1.2.2.1.1. Distributed Multimodal Synchronization Protocol

1.2.2.2. OpenInterface

1.2.2.2.1. OpenInterface STREP (framework)

1.2.2.2.2. OpenInterface Platform

1.2.2.3. Hephais Toolkit

1.3. Dispositivi di interazione

1.3.1. Generalità sui dispositivi di input

1.3.2. Lista dispositivi input per computer

1.3.3. Generalità sui dispositivi di output

1.3.4. Lista dispositivi output per computer

1.3.5. Elenco e risorse dispositivi di input

1.3.6. Dispositivi di visione/proiezione

1.3.7. Dispositivi di interazione specifici

1.3.7.1. Microsoft Surface (Vedi...)

1.3.7.2. N-Trig (Vedi...)

1.3.7.3. Cubic mouse

1.3.7.4. TactaPad

1.3.7.5. MagicMouse Ring

1.3.7.6. 3Dconnexion

1.3.7.7. Microsoft ThinSight (Vedi...)

1.4. Google Trends: human computer interaction

1.5. Zoomball - A 3D mouse interface

1.6. Glossario termini

1.6.1. Classificazione dei dispositivi di interazione e terminologia

2. MultiTouch

2.1. Lavagna e applicativi per lezioni universitarie

2.2. Jeff Han al TED

2.3. Microsoft Surface

2.4. NUI Group

2.4.1. Realizzare uno schermo MultiTouch

2.4.1.1. Frustrated Total Internal Reflection

2.4.1.2. Diffused Illumination

2.4.1.2.1. Prototipi Altamirone

2.4.2. Touchlib

2.4.3. Tbeta

2.5. Google Trends: multi touch, multitouch

2.6. Johnny Chung Lee: MultiTouch con pennarelli IR e Wiimote

2.6.1. Head Tracking con Wiimote

2.6.2. Johnny Chung Lee

2.6.2.1. Wiimote Project

2.6.3. Prototipi pennarelli IR

2.6.3.1. Accensione a scatto della punta

2.6.3.2. Accensione a rovescio (a stacco)

2.6.3.3. Doppio livello di luminosità

2.7. Cursore di hovering

2.8. Interazione mano/pennarelli IR

2.9. Puntatore laser IR

2.10. Aree grafiche di lavoro per multiutenza e collaborazione

2.10.1. Vedi...

2.11. Storia dei dispositivi multitouch

2.11.1. N-Trig

2.11.1.1. Ma sarà compatibile con la carta elettronica?

2.11.2. Microsoft ThinSight

2.11.2.1. Shahram Izadi

2.11.2.1.1. Dynamo

2.12. Windows 7 e il supporto MultiTouch

2.12.1. MultiTouchVista

2.13. Minority Report

2.13.1. Modalità di interazione mista a contatto/da lontano

3. DataGlove

3.1. Aggiungere il posizionamento

3.1.1. Accelerometro e giroscopio

3.1.1.1. Confronto sensori: giroscopi, accelerometri e elettromiogrammi

3.1.1.2. Inertial navigation systems

3.1.2. Computer vision

3.1.3. Guanto sensoriale per interagire con una scena 3D

3.1.3.1. Hand Gesture Interface for Windows Operating Systems

3.1.3.2. Interfacciarsi con Blender

3.1.3.2.1. Script python di un tizio che usa un guanto 5DOF con Blender

3.1.4. Sonar

3.1.4.1. SonaMini Sonar Sensor

3.1.4.2. Devantech SRF04 Ranger

3.1.4.3. Real time position estimation for mobile robots by means of sonarsensors

3.1.5. Acoustic Tag ?

3.2. "La novità è il TESSUTO sensoriale"

3.2.1. Sfera sensoriale gommosa

3.2.2. Sensore per pelli di tamburi

3.2.3. Pelle per pupazzi/androidi

3.2.4. Usare le linee di conduttore come fili

3.2.4.1. Problema: resistenza troppo elevata e variabile (e probabilmente ci sarebbe troppo rumore)

3.2.4.2. Magari come piste on/off si (circuito chiuso/aperto)

3.2.4.2.1. Tastiera di stoffa?

3.2.4.2.2. Vedi...

3.2.5. Cute Circuit

3.3. Aggiungere un puntatore a distanza per lo schermo

3.3.1. Puntatore laser e webcam

3.3.1.1. Blog di Ashish

3.3.1.1.1. Phydgets?

3.3.2. Puntatore laser e pannello multitouch (Vedi...)

3.4. "Incontro con Paternò"

3.4.1. Interagire con il computer da lontano (senza toccare, è il rovescio del multitouch, è complementare!)

3.4.1.1. Window manager che "funziona da lontano"

3.4.1.1.1. Touchless interface

3.4.1.2. Browsing da lontano

3.4.1.3. Google Earth con il guanto

3.4.1.4. Quali sono i "comandi" principali che un utente dà ad un'applicazione?

3.4.1.4.1. Riconosciuti da noi

3.4.1.4.2. Wikipedia: Interfaccia utente

3.4.1.4.3. Interaction styles

3.4.1.5. Feedback tattile

3.5. DataGlove e videogame: nuovi giochi che sfruttano gesti complessi

3.5.1. "Mosse" alla maghi, Dragon Ball, anime, picchiaduro, in stile Final Fantasy

3.5.1.1. Combo più complesse

3.5.1.1.1. Sfruttano la dinamica

3.5.1.1.2. Sfruttano la posizione

3.5.1.1.3. Sequenze di mosse atomiche

3.5.1.1.4. Percentuali di riuscita che influenzano il risultato in modo quantitativo (86% ok -> palla di fuoco all'86%, 40% ok -> fiammellina)

3.5.1.1.5. Modificatori di sequenze (gesti composti che potenziano il risultato)

3.5.1.1.6. Tempo di "carica" rilevante

3.5.1.1.7. Feedback audiovisivo generato a seconda del gesto che fa intendere la precisione dell'esecuzione

3.5.1.2. Identificazione migliore col personaggio

3.5.1.3. Divertimento nel fare i movimenti ("ganzo, mi muovo come Goku!")

3.5.1.4. Una delle sfide del gioco è proprio imparare e fare bene i gesti

3.5.1.4.1. Riduzione del problema "non ho voglia di imparare a fare bene i gesti per usare il guanto"

3.5.1.5. Siccome il gioco si basa su una nuova modalità di interazione, è molto più giustificato l'uso di un dispositivo nuovo (e l'utente magari se lo mette più volentieri)

3.5.1.6. Si sfrutta il fatto che nell'immaginario ci sono proprio questi gesti

3.5.1.7. Nuovo filone all'interno dei nuovi giochi-movimento stile Wii, orientato ad un pubblico più classicamente nerd (RPG alla FF7)

3.5.1.8. Anche uso di armi magiche e oggetti (magari si vendono le versioni plasticose degli oggetti, che ti aiutano a tenere le mani nella giusta posizione)

3.5.1.9. Movimento del personaggio?

3.5.1.9.1. Head tracking

3.5.1.9.2. Muovere le mani molto lontano dal centro ("bordo" dello spazio)

3.5.1.10. Gesti che considerano il "tatto" (Vedi...)

3.5.1.11. Feedback tattile

3.5.2. Sistema per fare un matching tra gesti disponibili e gesti effettuati (on-line e quasi in tempo reale)

3.5.3. Wii vs. Power Glove

3.5.4. Microsoft Natal

3.5.4.1. Commercial video

3.6. Google Trends: dataglove, data glove, sensor glove, cyberglove, wired glove, cyber glove

3.7. Data gloves in generale

3.8. Aggiungere la pressione dei polpastrelli

3.8.1. Aggiungere il senso del tocco in alcuni punti

3.9. [incontro Mario Tesconi]

3.9.1. Separare i vari componenti con comunicazione tramite socket

3.9.2. Usare i dati degli angoli della mano per il riconoscimento non è fattibile: conviene usare un'analisi dei 16 canali originali

3.9.2.1. Reti neurali

3.9.2.2. Distanza euclidea

3.9.2.3. Niente realtà virtuale per ora

3.9.3. Passo 1: riconoscere affidabilmente mano aperta/mano chiusa analizzando i 16 canali, con un occhio alla questione della calibrazione

3.9.4. Passo 2: decidere e integrare i sensori aggiuntivi

3.9.5. Passo 3: raggiungere il posizionamento (avere coordinate 3D della posizione del guanto nello spazio, e la sua rotazione)

3.9.6. Passo 4: usare coordinate e gesti per interagire con qualcosa (per ora: scena 3D)

3.10. Aggiungere attuatori vibranti per dare un feedback tattile

4. Accelerometro e Giroscopio

4.1. Accelerometro

4.1.1. Tre assi

4.1.2. Sei assi?

4.2. Giroscopio

4.2.1. Sicuri che serve?

4.3. WiiMote Tecnology Exposed

5. Indoor Positionig

5.1. Sensori magnetici

5.1.1. Low Frequency Magnetic Fields

5.2. Ultrasuoni

5.2.1. Wiki

5.2.2. Ricerca DX Portal

5.2.3. PING)))

5.2.3.1. Distance using PING)))

5.2.4. A non-scanning ultrasonic sensor for driver assistant systems

5.2.5. Tektron Ultrasonic Sensors