Vai ai contenuti. | Spostati sulla navigazione | Spostati sulla ricerca | Vai al menu | Contatti | Accessibilità

| Crea un account

Vitali, Andrea (2016) Augmented interaction for custom-fit products by means of interaction devices at low costs. [Tesi di dottorato]

Full text disponibile come:

[img]Documento PDF - Versione sottomessa
Tesi non accessible fino a 31 Dicembre 2017 per motivi correlati alla proprietà intellettuale.
Visibile a: nessuno


Abstract (inglese)

This Ph.D thesis refers to a research project that aims at developing an innovative platform to design lower limb prosthesis (both for below and above knee amputation) centered on the virtual model of the amputee and based on a computer-aided and knowledge-guided approach. The attention has been put on the modeling tool of the socket, which is the most critical component of the whole prosthesis. The main aim has been to redesign and develop a new prosthetic CAD tool, named SMA2 (Socket Modelling Assistant2) exploiting a low-cost IT technologies (e.g. hand/finger tracking devices) and making the user’s interaction as much as possible natural and similar to the hand-made manipulation. The research activities have been carried out in six phases as described in the following.
First, limits and criticalities of the already available modeling tool (namely SMA) have been identified. To this end, the first version of SMA has been tested with Ortopedia Panini and the orthopedic research group of Salford University in Manchester with real case studies. Main criticalities were related to: (i) automatic reconstruction of the residuum geometric model starting from medical images, (ii) performance of virtual modeling tools to generate the socket shape, and (iii) interaction mainly based on traditional devices (e.g., mouse and keyboard).
The second phase lead to the software reengineering of SMA according to the limits identified in the first phase. The software architecture has been re-designed adopting an object-oriented paradigm and its modularity permits to remove or add new features in a very simple way. The new modeling system, i.e. SMA2, has been totally implemented using open source Software Development Kit-SDK (e.g., Visualization ToolKit VTK, OpenCASCADE and Qt SDK) and based on low cost technology. It includes:
• A new module to automatically reconstruct the 3D model of the residual limb from MRI images. In addition, a new procedure based on low-cost technology, such as Microsoft Kinect V2 sensor, has been identified to acquire the 3D external shape of the residuum.
• An open source software library, named SimplyNURBS, for NURBS modeling and specifically used for the automatic reconstruction of the residuum 3D model from medical images. Even if, SimplyNURBS has been conceived for the prosthetic domain, it can be used to develop NURBS-based modeling tools for a range of applicative domains from health-care to clothing design.
• A module for mesh editing to emulate the hand-made operations carried out by orthopedic technicians during traditional socket manufacturing process. In addition several virtual widgets have been implemented to make available virtual tools similar to the real ones used by the prosthetist, such as tape measure and pencil.
• A Natural User Interface (NUI) to allow the interaction with the residuum and socket models using hand-tracking and haptic devices.
• A module to generate the geometric models for additive manufacturing of the socket.
The third phase concerned the study and design of augmented interaction with particular attention to the Natural User Interface (NUI) for the use of hand-tracking and haptic devices into SMA2. The NUI is based on the use of the Leap Motion device. A set of gestures, mainly iconic and suitable for the considered domain, has been identified taking into account ergonomic issues (e.g., arm posture) and ease of use. The modularity of SMA2 permits us to easily generate the software interface for each device for augmented interaction. To this end, a software module, named Tracking plug-in, has been developed to automatically generate the source code of software interfaces for managing the interaction with low cost hand-tracking devices (e.g., Leap Motion and Intel Gesture Camera) and replicate/emulate manual operations usually performed to design custom-fit products, such medical devices and garments. Regarding haptic rendering, two different devices have been considered, the Falcon Novint, and a haptic mouse developed in-house.
In the fourth phase, additive manufacturing technologies have been investigated, in particular FDM one. 3D printing has been exploited in order to permit the creation of trial sockets in laboratory to evaluate the potentiality of SMA2. Furthermore, research activities have been done to study new ways to design the socket. An innovative way to build the socket has been developed based on multi-material 3D printing. Taking advantage of flexible material and multi-material print possibility, new 3D printers permit to create object with soft and hard parts. In this phase, issues about infill, materials and comfort have been faced and solved considering different compositions of materials to re-design the socket shape.
In the fifth phase the implemented solution, integrated within the whole prosthesis design platform, has been tested with a transfemoral amputee. Following activities have been performed:
• 3D acquisition of the residuum using MRI and commercial 3D scanning systems (low cost and professional).
• Creation of the residual limb and socket geometry.
• Multi-material 3D printing of the socket using FDM technology.
• Gait analysis of the amputee wearing the socket using a markerless motion capture system.
• Acquisition of contact pressure between residual limb and a trial socket by means of Teskan’s F-Socket System.
Acquired data have been combined inside an ad-hoc developed application, which permits to simultaneously visualize pressure data on the 3D model of the residual lower limb and the animation of gait analysis. Results and feedback have been possible thanks to this application that permits to find correlation between several phases of the gait cycle and the pressure data at the same time. Reached results have been considered very interested and several tests have been planned in order to try the system in orthopedic laboratories in real cases. The reached results have been very useful to evaluate the quality of SMA2 as a future instruments that can be exploited for orthopedic technicians in order to create real socket for patients. The solution has the potentiality to begin a potential commercial product, which will be able to substitute the classic procedure for socket design.
The sixth phase concerned the evolution of SMA2 as a Mixed Reality environment, named Virtual Orthopedic LABoratory (VOLAB). The proposed solution is based on low cost devices and open source libraries (e.g., OpenCL and VTK). In particular, the hardware architecture consists of three Microsoft Kinect v2 for human body tracking, the head mounted display Oculus Rift SDK 2 for 3D environment rendering, and the Leap Motion device for hand/fingers tracking. The software development has been based on the modular structure of SMA2 and dedicated modules have been developed to guarantee the communication among the devices. At present, two preliminary tests have been carried out: the first to verify real-time performance of the virtual environment and the second one to verify the augmented interaction with hands using SMA2 modeling tools. Achieved results are very promising but, highlighted some limitations of this first version of VOLAB and improvements are necessary. For example, the quality of the 3D real world reconstruction, especially as far as concern the residual limb, could be improved by using two HD-RGB cameras together the Oculus Rift.
To conclude, the obtained results have been evaluated very interested and encouraging from the technical staff of orthopedic laboratory. SMA2 will made possible an important change of the process to design the socket of lower limb prosthesis, from a traditional hand-made manufacturing process to a totally virtual knowledge-guided process. The proposed solutions and results reached so far can be exploited in other industrial sectors where the final product heavily depends on the human body morphology. In fact, preliminary software development has been done to create a virtual environment for clothing design by starting from the basic modules exploited in SMA2.

Abstract (italiano)

La presente tesi di dottorato è stata sviluppata nell’ambito di un progetto di ricerca che ha come obiettivo lo sviluppo di un framework innovativo per la progettazione di protesi per arto inferiore (per amputazioni sia transfemorali sia transtibiali) che permetta di gestire l’intero processo in un unico ambiente integrato dove ciascuna attività è supportata in modo diretto dalla conoscenza di dominio specifica. L’attenzione è stata posta sullo sviluppo di un’applicazione per la progettazione dell’invaso, il componente più critico dell’intera protesi. L’obbiettivo principale del lavoro di tesi è stato, quindi, la reingegnerizzazione e lo sviluppo di un nuovo sistema CAD prostetico, denominato SMA2 (Socket Modelling Assistant2, basato sull’impiego di tecnologie innovative a basso costo, quali ad esempio periferiche per il tracciamento di mani e dita, per permettere l’interazione uomo-macchina il più naturale possibile.
Le attività di ricerca sono state organizzate in sei fasi principali come segue.
Durante la prima fase, i limiti e le criticità della prima versione del sistema di modellazione (denominato SMA) sono stati identificati. A tal fine, SMA è stato testato con il personale tecnicno dell’ortopedia Panini e con i ricercatori del gruppo di ricerca in ortopedia della Salford University di Manchester utilizzando casi di studio reali. Sono state identificate le seguenti criticità a: (i) difficoltà nella ricostruzione del modello 3D dell’arto amputato partendo da immagine mediche, (ii) prestazioni delle modalità di modellazione 3D dell’invaso non adeguate e (iii) interazione con l’ambiente virtuale basata esclusivamente su periferiche classiche come tastiera e mouse e non era possibile emulare le tipiche operazioni di modifica dell’invaso.
La seconda fase ha riguardato la riprogettazione del sistema di modellazione SMA in funzione dei limiti identificati nella prima fase. L’architettura software è stata riprogettata seguendo i paradigmi della progettazione orientata agli oggetti e la sua modularità permette di rimuovere o aggiungere nuovi moduli in modo semplice. Il nuovo sistema di modellazione, SMA2, è stato totalmente implementato usando Software Development Kit (SDK) con licenza open-source (in particolare Visualization ToolKit VTK, OpenCASCADE e Qt SDK) e basato su tecnologia a basso costo. Il sistema comprende:
• Un nuovo modulo per la ricostruzione automatica dell’arto residuo partendo da immagini MRI. In aggiunta, una nuova procedura basata su tecnologia a basso costo, come Microsoft Kinect v2, è stata identificata ed utilizzata per acquisire il modello 3D dell’arto residuo.
• Una libreria software open-souce, denominata SimplyNURBS, per la modellazione di superfici NURBS e specificatamente utilizzata per la ricostruzione automatica dell’arto amputato partendo dalle imamgini MRI. Anche se SimplyNURBS è stata sviluppata nell’ambito della progettazione di protesi per arti inferiori, essa può essere usata all’interno di altre applicazioni, sia in ambito medico sia in ambito industriale per quei prodotti la cui modellazione richiede l’utilizzo di modelli NURBS, quali ad esempio capi di abbigliamento.
• Un modulo per la modifica di mesh triangolari per emulare le operationi manuali effettuate dai tecnici ortopedici durante il processo di sviluppo prodotto dell’invaso. Inoltre, sono stati sviluppati strumenti di modellazione virtuali per simulare quelli utilizzati dal tecnico ortopedico, quali ad esempio il metro per misurare l’arto residuo o la matita per evidenziare le zone critiche dell’invaso.
• Una Natural User Interface (NUI) che permette di interagire con i modelli dell’arto residuo e dell’invaso attraverso periferiche di hand-tracking.
• Un modulo per generare il modello geometrico dell’invaso per la realizzazione dello stesso mediante tecnologie di produzione additive.
La terza fase ha riguardato lo studio e la progettazione dell’interazione aumentata con particolare attenzione allo sviluppo di una Natural User Interface per l’uso di periferiche di hand-tracking e di force-feedback. La NUI è basata sull’uso della periferica di hand-tracking Leap Motion. Un insieme di gesti, principalmente iconici e adatti al dominio considerato, sono stati indentificati tenendo in considerazione vincoli ergonomici (per esempio, la postura delle braccia) e la facilità di utilizzo. La modularità di SMA2 ha permesso di generare in modo semplice un’interfaccia software per ogni dispositivo di hand-tracking preso in considerazione. Inoltre, è stato sviluppato un modulo software, denominato Tracking plug-in, che permette di generare in automatico il codice sorgente per la creazione di interfacce per l’interazione con dispositivi di hand-tracking, come ad esempio Leap Motion e Intel Gesture Camera. In questo modo è possibile replicare/emulare le operazioni che vengono eseguite durante la progettazione di prodotti custom-fit, quali protesi e capi di abbigliamento. Per quanto riguarda i dispositivi per l’interazione tattile, sono stati considerati il Novint Falcon e un mouse aptico sviluppato ad hoc.
Durante la quarta fase, sono state studiate ed analizzate le tecnologie di Additive Manufacturing, ponendo particolare attenzione alla tecnologia FDM. Tale tecnologia è stata utilizzata per realizzare l’invaso di un paziente progettato con SMA2 e verificarne le potenzialità. Inoltre, sono state condotte attività di ricerca per valutare nuove modalità di progettazione dell’invaso. In particolare, è stata considerata la possibilità di progettare e realizzare l’invaso utilizzando una stampante FDM multi materiale. Sfuttando possibilità di utilizzare materiali flessibili e la stampa di oggetti con materiali diversi, è possibile realizzare un invaso composto da parti flessibili e parti più rigide. A tal fine sono stati presi in considerazione aspetti, quali le modalità di riempimento (infill) durante la stampa 3D, i materiali per la realizzazione delle diverse parti ed il
Durante la quinta fase, il sistema implementato, integrato all’interno dell’intera piattaforma per la progettazione di protesi, è stato sperimentato con un paziente con amputazione transfermorale. Sono state svolte le seguenti attività:
• Acquisizione dell’arto amputato mediante Risonanza Magnetica e sistemi commerciali di acquisizione 3D (sia a basso coste sia professionali).
• Creazione della geometria 3D dell’arto residuo e dell’invaso.
• Stampa 3D multi materiale dell’invaso utilizzando la tecnologia FDM.
• Analisi della camminata dell’amputato mediante un sistema di acquisizione del movimento.
• Acquisizione delle pressioni di contatto tra invaso e arto residuo mediante il sistema Teskan F-Socket System.
Mediante un’applicazione sviluppata ad hoc, è stato possibile rimappare sul modello 3D dell’invaso i valori di pressione acquisiti mediante mappe di colore e simultaneamente visualizzare l’animazione della camminata acquisita. Questa applicazione permette di identificare eventuali correlazioni tra le differenti fasi del ciclo della camminata ed i valori di pressione acquisiti. I risultati raggiunti si sono rilevati d’interesse e sono stati pianificati ulteriori test per validare il sistema con altri pazienti. I risultati ottenuti hanno, inoltre permesso di valutare le potenzialità di SMA2 ed il suo impiego presso laboratori ortopedici. La soluzione ha il potenziale per diventare un prodotto commerciale e quindi sostituire la procedura manuale seguita per progettazione dell’invaso.
La sesta fase ha riguardato l’evoluzione di SMA2 come ambiente di Mixed Reality. La soluzione proposta, denominata Virtual Othopedic Laboratory (VOLAB), è sempre basata su dispositivi a basso costo e librerie software open source (OpenCL e VTK). In particolare, l’architettura hardware comprende tre Microsoft Kinect v2 per il tracciamento del corpo umano, il sistema di visione 3D Oculus Rift SDK 2 per il rendering dell’ambiente virtuale ed il dispositivo Leap Motion per il tracciamento della mani/dita. Lo sviluppo software è basato sulla struttura modulare di SMA2 e moduli dedicati che sono stati sviluppati per garantire la comunicazione tra i vari dispositivi coinvolti. Attualmente, sono stati svolti due test preliminari: il primo per verificare le prestazioni real-time dell’ambiente virtuale ed il secondo per verificare l’interazione con i dispositivi di hand-tracking durante l’utilizzo degli strumenti di modellazione virtuale messi a disposizione da SMA2. I risultati ottenuti sono molto promettenti, ma sono necessari ulteriori miglioramenti. Per esempio, la qualità della ricostruzione dell’ambiente virtuale, in particolare del modello dell’arto residuo, potrebbe essere migliorata utilizzando due camere HD-RGB in aggiunta all’Oculus Rift.
Per concludere, i risultati ottenuti sono stati considerati molto interessanti ed incoraggianti dallo staff tecnico dei laboratori ortopedici. SMA2 renderà possibile un importante cambiamento del modo di progettare un invaso per protesi d’arto inferiore, da un processo tradizionalmente manuale ad un nuovo processo basato su approccio virtuale e l’impiego di strumenti computer-aided. Le soluzioni proposte ed i risultati raggiunti possono essere utilizzati anche in altri settori industriali dove il prodotto finale dipende fortemente dalla morfologia del corpo umano. Infatti, sono stati sviluppati alcuni moduli software per la progettazioni di capi di abbigliamento partendo dai moduli base sviluppati per SMA2.

Aggiungi a RefWorks
Tipo di EPrint:Tesi di dottorato
Relatore:Rizzi, Caterina
Correlatore:Regazzoni, Daniele
Data di deposito della tesi:01 Febbraio 2016
Anno di Pubblicazione:31 Gennaio 2016
Parole chiave (italiano / inglese):Lower limb prosthesis, Socket design and modeling, Mixed reality, Augmented interaction, Low cost hand-tracking devices, Additive manufacturing. Protesi per arto inferiore, Progettazione e modellazione dell’invaso, Mixed Reality, Interazione aumentata, Dispositivi di hand-tracking a basso costo, Additive manufacturing.
Settori scientifico-disciplinari MIUR:Area 09 - Ingegneria industriale e dell'informazione > ING-IND/15 Disegno e metodi dell'ingegneria industriale
Struttura di riferimento:Dipartimenti > Dipartimento di Ingegneria Industriale
Codice ID:9508
Depositato il:06 Ott 2016 16:02
Simple Metadata
Full Metadata
EndNote Format


I riferimenti della bibliografia possono essere cercati con Cerca la citazione di AIRE, copiando il titolo dell'articolo (o del libro) e la rivista (se presente) nei campi appositi di "Cerca la Citazione di AIRE".
Le url contenute in alcuni riferimenti sono raggiungibili cliccando sul link alla fine della citazione (Vai!) e tramite Google (Ricerca con Google). Il risultato dipende dalla formattazione della citazione.

[1] G. Colombo, G. Facoetti, and C. Rizzi, “A digital patient for computer-aided prosthesis design,” Interface Focus, vol. 3, no. 2, 2013. Cerca con Google

[2] Biosculptor. Available: Vai! Cerca con Google

[3] Vorum. Available: Vai! Cerca con Google

[4] Rodin4D. Available: Vai! Cerca con Google

[5] Inifinity CAD Systems. Available: Vai! Cerca con Google

[6] Orten.Available: Vai! Cerca con Google

[7] Ossur. Available: Vai! Cerca con Google

[8] G. Facoetti, S. Gabbiadini, G. Colombo, and C. Rizzi, “Knowledge-based system for guided modeling of sockets for lower limb prostheses,” Comput. Aided Des. Appl, vol. 7, no. 5, pp. 723–737, 2010. Cerca con Google

[9] G. Colombo, G. Facoetti, R. Morotti, and C. Rizzi, “Physically based modelling and simulation to innovate socket design,” Comput. Aided. Des. Appl., vol. 8, no. 4, pp. 617–631, 2011. Cerca con Google

[10] G. Colombo, D. Regazzoni, and C. Rizzi, “Ergonomic design through virtual Humans,” Comput. Aided. Des. Appl., vol. 10, no. 5, pp. 745–755, 2013. Cerca con Google

[11] S. Gabbiadini, “Knowledge-based design of lower limb prosthesis,” Università degli studi di Padova, 2011. Cerca con Google

[12] G. Colombo, G. Facoetti, C. Rizzi, and A. Vitali, “Socket Virtual Design Based on Low Cost Hand Tracking and Haptic Devices,” in Proceedings of the 12th ACM SIGGRAPH International Conference on Virtual-Reality Continuum and Its Applications in Industry, 2013, pp. 63–70. Cerca con Google

[13] G. Colombo, G. Facoetti, C. Rizzi, A. Vitali, and A. Zanello, “Automatic 3D Reconstruction of Transfemoral Residual Limb from MRI Images,” in Digital Human Modeling and Applications in Health, Safety, Ergonomics, and Risk Management. Human Body Modeling and Ergonomics, Springer, 2013, pp. 324–332. Cerca con Google

[14] G. Colombo, G. Facoetti, C. Rizzi, and A. Vitali, “Virtual, Augmented and Mixed Reality: 7th International Conference, VAMR 2015, Held as Part of HCI International 2015, Los Angeles, CA, USA, August 2-7, 2015, Proceedings,” R. Shumaker and S. Lackey, Eds. Cham: Springer International Publishing, 2015, pp. 351–360. Cerca con Google

[15] C. Comotti, D. Regazzoni, C. Rizzi, and A. Vitali, “Multi-material Design and 3D Printing Method of Lower Limb Prosthetic Sockets,” in Proceedings of the 3rd 2015 Workshop on ICTs for Improving Patients Rehabilitation Research Techniques, 2015, pp. 42–45. Cerca con Google

[16] G. Colombo, C. Rizzi, G. Facoetti, and A. Vitali, “SimplyNURBS: A Software Library to simplify the use of NURBS Models and its Application for Medical Devices,” in Proceedings of CAD’14, 2014, pp. 215–218. Cerca con Google

[17] Comotti Claudio, Colombo Giorgio, Regazzoni Daniele, Rizzi Caterina, Andrea Vitali “Low Cost 3D Scanners Along the Design of Lower Limb Prosthesis,” in 6th Int. Conf. on 3D Body Scanning Technologies, 2015, pp. 147–154. Cerca con Google

[18] R. Morotti, “DEVELOPMENT OF A VIRTUAL TESTING LABORATORY FOR LOWER LIMB PROSTHESIS,” Università degli studi di Padova, 2013. Cerca con Google

[19] VTK. Available: Vai! Cerca con Google

[20] Qt Project. Available: Vai! Cerca con Google

[21] Leap Motion. Avaialable: https//www. leapmotion. com/. Cerca con Google

[22] L. Stãnculescu, R. Chaine, and M.-P. Cani, “Freestyle: Sculpting meshes with self-adaptive topology,” Comput. Graph., vol. 35, no. 3, pp. 614–622, 2011. Cerca con Google

[23] S. Eginier, SculptGL.. Available: . Vai! Cerca con Google

[24] Skanect.. Available: Vai! Cerca con Google

[25] SMS NLib. Avaialable: . Vai! Cerca con Google

[26] L. a. Piegl, W. Tiller, and K. Rajab, “It is time to drop the ‘R’ from NURBS,” Eng. Comput., pp. 1–16, Apr. 2013. Cerca con Google

[27] L. Piegl and W. Tiller, The NURBS Book (2Nd Ed.). New York, NY, USA: Springer-Verlag New York, Inc., 1997. Cerca con Google

[28] L. A. Piegl, “Knowledge-guided computation for robust CAD,” Comput. Aided. Des. Appl., vol. 2, no. 5, pp. 685–695, 2005. Cerca con Google

[29] NURBS++. Available: Vai! Cerca con Google

[30] OpenCASCADE. Avaialable: Vai! Cerca con Google

[31] AYAM. Available: Vai! Cerca con Google

[32] D. Brujic, I. Ainsworth, and M. Ristic, “Fast and accurate NURBS fitting for reverse engineering,” Int. J. Adv. Manuf. Technol., vol. 54, no. 5–8, pp. 691–700, 2011. Cerca con Google

[33] T. Buzan, How to mind map. HarperCollins UK, 2002. Cerca con Google

[34] J. T. Bushberg and J. M. Boone, The essential physics of medical imaging. Lippincott Williams & Wilkins, 2011. Cerca con Google

[35] N. D’Apuzzo, “State of the art of the methods for static 3D scanning of partial or full human body,” in Proceedings of Conference on 3D Modeling, Paris, France, 2006. Cerca con Google

[36] C.-S. Park, S.-W. Kim, S.-W. Kim, and S.-R. Oh, “Comparison of plane extraction performance using laser scanner and Kinect,” in Ubiquitous Robots and Ambient Intelligence (URAI), 2011 8th International Conference on, 2011, pp. 153–155. Cerca con Google

[37] Y.-J. Chang, S.-F. Chen, and J.-D. Huang, “A Kinect-based system for physical rehabilitation: A pilot study for young adults with motor disabilities,” Res. Dev. Disabil., vol. 32, no. 6, pp. 2566–2570, 2011. Cerca con Google

[38] R. A. Clark, Y.-H. Pua, K. Fortin, C. Ritchie, K. E. Webster, L. Denehy, and A. L. Bryant, “Validity of the Microsoft Kinect for assessment of postural control,” Gait Posture, vol. 36, no. 3, pp. 372–377, 2012. Cerca con Google

[39] D. Regazzoni, C. Rizzi, C. Comotti, and F. Massa, “Towards Automatic Gait Assessment by Means of RGB-D Mocap,” in ASME 2015 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference, 2015, pp. V01AT02A057–V01AT02A057. Cerca con Google

[40] HandyScan. Available: . Vai! Cerca con Google

[41] P. F. Felzenszwalb and D. P. Huttenlocher, “Efficient Graph-Based Image Segmentation,” Int. J. Comput. Vis., vol. 59, no. 2, pp. 167–181. Cerca con Google

[42] “SCENECT by Faro.” Available: Vai! Cerca con Google

[43] “ARTEC STUDIO by Artec.” . Cerca con Google

[44] M. Bordegoni, F. Ferrise, M. Covarrubias, and M. Antolini, “Haptic and sound interface for shape rendering,” Presence Teleoperators Virtual Environ., vol. 19, no. 4, pp. 341–363, 2010. Cerca con Google

[45] T. Narumi, T. Kajinami, T. Tanikawa, and M. Hirose, “Meta cookie,” in ACM SIGGRAPH 2010 Posters, 2010, p. 143. Cerca con Google

[46] R. Riener and M. Harders, Virtual Reality in Medicine. London, 2012. Cerca con Google

[47] M. Hutchins, M. Adcock, D. Stevenson, C. Gunn, and A. Krumpholz, “The design of perceptual representations for practical networked multimodal virtual training environments,” in Proceedings of the 11th International Conference on Human--Computer Interaction, 2005, pp. 22–27. Cerca con Google

[48] G. Sela, J. Subag, A. Lindblad, D. Albocher, S. Schein, and G. Elber, “Real-time haptic incision simulation using FEM-based discontinuous free-form deformation,” Comput. Des., vol. 39, no. 8, pp. 685–693, 2007. Cerca con Google

[49] B. Perez-Gutierrez, D. M. Martinez, and O. E. Rojas, “Endoscopic endonasal haptic surgery simulator prototype: A rigid endoscope model,” in Virtual Reality Conference (VR), 2010 IEEE, 2010, pp. 297–298. Cerca con Google

[50] S. Katsura, W. Iida, and K. Ohnishi, “Medical mechatronics—An application to haptic forceps,” Annu. Rev. Control, vol. 29, no. 2, pp. 237–245, 2005. Cerca con Google

[51] M. Bordegoni and F. Ferrise, “Designing interaction with consumer products in a multisensory VR environment,” VIRTUAL AND PHYSICAL PROTOTYPING, vol. 8. pp. 1–21, 2013. Cerca con Google

[52] R. Y. Wang and J. Popović, “Real-time hand-tracking with a color glove,” in ACM Transactions on Graphics (TOG), 2009, vol. 28, no. 3, p. 63. Cerca con Google

[53] S. Melax, L. Keselman, and S. Orsten, “Dynamics based 3D skeletal hand tracking,” in Proceedings of the ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games, 2013, p. 184. Cerca con Google

[54] V. A. Prisacariu and I. Reid, “3D hand tracking for human computer interaction,” Image Vis. Comput., vol. 30, no. 3, pp. 236–250, 2012. Cerca con Google

[55] L. E. Potter, J. Araullo, and L. Carter, “The Leap Motion Controller: A View on Sign Language,” in Proceedings of the 25th Australian Computer-Human Interaction Conference: Augmentation, Application, Innovation, Collaboration, 2013, pp. 175–178. Cerca con Google

[56] F. Weichert, D. Bachmann, B. Rudak, and D. Fisseler, “Analysis of the Accuracy and Robustness of the Leap Motion Controller,” Sensors, vol. 13, no. 5, pp. 6380–6393, 2013. Cerca con Google

[57] S. Sridhar, A. Oulasvirta, and C. Theobalt, “Fast Tracking of Hand and Finger Articulations Using a Single Depth Camera,” 2015. Cerca con Google

[58] Duo3D. Available: Vai! Cerca con Google

[59] G. Colombo, F. De Angelis, and L. Formentini, “Integration of virtual reality and haptics to carry out ergonomic tests on virtual control boards,” Int. J. Prod. Dev., vol. 11, no. 1, pp. 47–61, 2010. Cerca con Google

[60] K. Ohnishi, S. Katsura, and T. Shimono, “Motion control for real-world haptics,” Ind. Electron. Mag. IEEE, vol. 4, no. 2, pp. 16–19, 2010. Cerca con Google

[61] A. Ninu, S. Dosen, D. Farina, F. Rattay, and H. Dietl, “A novel wearable vibro-tactile haptic device,” in Consumer Electronics (ICCE), 2013 IEEE International Conference on, 2013, pp. 51–52. Cerca con Google

[62] T. R. Coles, D. Meglan, and N. W. John, “The role of haptics in medical training simulators: a survey of the state of the art,” Haptics, IEEE Trans., vol. 4, no. 1, pp. 51–66, 2011. Cerca con Google

[63] M. Abu-Tair and A. Marshall, “An empirical model for multi-contact point haptic network traffic,” in Proceedings of the 2nd International Conference on Immersive Telecommunications, 2009, p. 15. Cerca con Google

[64] NuiGroup. Available: Vai! Cerca con Google

[65] D. Wigdor and D. Wixon, Brave NUI world: designing natural user interfaces for touch and gesture. Elsevier, 2011. Cerca con Google

[66] D. Kaushik, R. Jain, and others, “Natural User Interfaces: Trend in Virtual Interaction,” arXiv Prepr. arXiv1405.0101, 2014. Cerca con Google

[67] D. Delimarschi, G. Swartzendruber, and H. Kagdi, “Enabling Integrated Development Environments with Natural User Interface Interactions,” 2014. Cerca con Google

[68] G. Colombo, G. Facoetti, C. Rizzi, and A. Vitali, “A preliminary study of new interaction devices to enhance virtual socket design,” 2014, pp. 1–8. Cerca con Google

[69] U. Lee and J. Tanaka, “Finger identification and hand gesture recognition techniques for natural user interface,” in Proceedings of the 11th Asia Pacific Conference on Computer Human Interaction, 2013, pp. 274–279. Cerca con Google

[70] G. Colombo, C. Rizzi, G. Facoetti, and A. Vitali, “Automatic Generation of Software Interfaces for Hand-Tracking Devices,” in ASME 2015 International Design Engineering Technical Conferences and Computers and Information in Engineering Conference, 2015, pp. V01BT02A057–V01BT02A057. Cerca con Google

[71] I. D. E. Eclipse, “The Eclipse Foundation.” 2007. Cerca con Google

[72] J. Musset, É. Juliot, S. Lacrampe, W. Piers, C. Brun, L. Goubet, Y. Lussaud, and F. Allilaire, “Acceleo user guide,” 2006. Cerca con Google

[73] U. Meier, O. López, C. Monserrat, M. C. Juan, and M. Alcaniz, “Real-time deformable models for surgery simulation: a survey,” Comput. Methods Programs Biomed., vol. 77, no. 3, pp. 183–197, 2005. Cerca con Google

[74] J. Schmid and N. Magnenat-Thalmann, “MRI bone segmentation using deformable models and shape priors,” in Medical Image Computing and Computer-Assisted Intervention--MICCAI 2008, Springer, 2008, pp. 119–126. Cerca con Google

[75] D. Li, N. Dai, X. Jiang, and X. Chen, “Interior structural optimization based on the density-variable shape modeling of 3D printed objects,” Int. J. Adv. Manuf. Technol., pp. 1–9, 2015. Cerca con Google

[76] N. Umetani and R. Schmidt, “Cross-sectional structural analysis for 3d printing optimization,” SIGGRAPH Asia, p. 5, 2013. Cerca con Google

[77] X. Zhang, Y. Xia, J. Wang, Z. Yang, C. Tu, and W. Wang, “Medial axis tree—an internal supporting structure for 3D printing,” Comput. Aided Geom. Des., vol. 35–36, pp. 149–162, 2015. Cerca con Google

[78] J. Giesen, B. Miklos, M. Pauly, and C. Wormser, “The Scale Axis Transform,” in Proceedings of the Twenty-fifth Annual Symposium on Computational Geometry, 2009, pp. 106–115. Cerca con Google

[79] A. N. Christiansen, R. Schmidt, and J. A. Bærentzen, “Automatic balancing of 3D models,” Comput. Des., vol. 58, pp. 236–241, 2015. Cerca con Google

[80] L. Lu, A. Sharf, H. Zhao, Y. Wei, Q. Fan, X. Chen, Y. Savoye, C. Tu, D. Cohen-Or, and B. Chen, “Build-to-last: Strength to Weight 3D Printed Objects,” ACM Trans. Graph., vol. 33, no. 4, pp. 97:1–97:10, 2014. Cerca con Google

[81] J. Panetta, Q. Zhou, L. Malomo, N. Pietroni, P. Cignoni, and D. Zorin, “Elastic Textures for Additive Fabrication,” ACM Trans. Graph., vol. 34, no. 4, pp. 135:1–135:12, 2015. Cerca con Google

[82] C. Murphy, “3D Printing infill using Biomimetics,” 2015. . Cerca con Google

[83] W. Gao, Y. Zhang, D. Ramanujan, K. Ramani, Y. Chen, C. B. Williams, C. C. L. Wang, Y. C. Shin, S. Zhang, and P. D. Zavattieri, “The status, challenges, and future of additive manufacturing in engineering,” Comput. Des., vol. 69, pp. 65–89, 2015. Cerca con Google

[84] D. A. Gibson, “Atlas of Limb Prosthetics,” Can. Med. Assoc. J., vol. 127, no. 4, p. 324, 1982. Cerca con Google

[85] T.-H. Kwok and C. C. L. Wang, “Shape optimization for human-centric products with standardized components,” Comput. Des., vol. 52, no. 0, pp. 40–50, 2014. Cerca con Google

[86] I. Oikonomidis, N. Kyriazis, and A. A. Argyros, “Efficient model-based 3D tracking of hand articulations using Kinect.,” in BMVC, 2011, vol. 1, no. 2, p. 3. Cerca con Google

[87] K.-Y. Yeung, T.-H. Kwok, and C. C. L. Wang, “Improved Skeleton Tracking by Duplex Kinects: A Practical Approach for Real-Time Applications,” J. Comput. Inf. Sci. Eng., vol. 13, no. 4, p. 41007, 2013. Cerca con Google

[88] D. Regazzoni, G. de Vecchi, and C. Rizzi, “RGB cams vs RGB-D sensors: Low cost motion capture technologies performances and limitations,” J. Manuf. Syst., vol. 33, no. 4, pp. 719–728, 2014. Cerca con Google

[89] X. Xu and R. W. McGorry, “The validity of the first and second generation Microsoft KinectTM for identifying joint center locations during static postures,” Appl. Ergon., vol. 49, no. 0, pp. 47–54, 2015. Cerca con Google

[90] J. Smisek, M. Jancosek, and T. Pajdla, “3D with Kinect,” in Consumer Depth Cameras for Computer Vision, A. Fossati, J. Gall, H. Grabner, X. Ren, and K. Konolige, Eds. Springer London, 2013, pp. 3–25. Cerca con Google

[91] Z. Zhang, “Microsoft Kinect Sensor and Its Effect,” MultiMedia, IEEE, vol. 19, no. 2, pp. 4–10, Feb. 2012. Cerca con Google

[92] H. G. Hoffman, W. J. Meyer III, M. Ramirez, L. Roberts, E. J. Seibel, B. Atzori, S. R. Sharar, and D. R. Patterson, “Feasibility of Articulated Arm Mounted Oculus Rift Virtual Reality Goggles for Adjunctive Pain Control During Occupational Therapy in Pediatric Burn Patients,” Cyberpsychology, Behav. Soc. Netw., vol. 17, no. 6, pp. 397–401, 2014. Cerca con Google

[93] T. Kot and P. Novák, “Utilization of the Oculus Rift HMD in Mobile Robot Teleoperation,” in Applied Mechanics and Materials, 2014, vol. 555, pp. 199–208. Cerca con Google

Solo per lo Staff dell Archivio: Modifica questo record