You. Magic. – A framework for human interaction

Che si tratti di interazione per gesti, vocale o anche solo con lo sguardo, questo framework permette di implementare nel tuo software qualsiasi interazione. Con semplicità.

Campi di applicazione:

  • Intelligenza artificiale: permettere a robot umanoidi o personaggi virtuali di riprodurre e riconoscere la gestualità e le movenze tipiche di un individuo, conferendo loro un comportamento “più umano”
  • Disabilità: affinare la motricità fine/grossa. Sottoponendo all’utente giochi interattivi mirati, è possibile tenere traccia dei progressi nel tempo e quindi effettuare statistica su di essi. Questo permette di effettuare il trattamento non solo in luoghi ostili come le sale mediche ma anche in altri contesti più gradevoli all’individuo.
  • Autismo: soggetti autistici hanno grandi difficoltà a stabilire un contatto visivo con altre persone ma grazie a NAO, che riesce ad attrarre su di sé l’attenzione, il contatto visivo è tenuto per un tempo elevato; senza che il bambino avverta intimidazione o ansia. Registrare movimenti che conferiscano al robot un atteggiamento più “umano” aiuta a rendere le sessioni più lunghe ed efficaci.
  • Controllo remoto di dispositivi: in situazioni di pericolo o di impossibilità risulta essenziale il controllo remoto al fine di prevenire danni a cose o persone (ad es. disinnesco ordigni).
  • Linguaggio universale per robot: Comandare n robot prevede l’apprendimento di n interfacce differenti. Con un linguaggio dei gesti universale, ad un gesto viene associato un determinato comportamento, qualunque sia il robot. Questo vorrebbe dire imparare un solo linguaggio per infiniti robot!
  • Installazioni multimediali: Rendi la presentazione di un prodotto ancora più spettacolare.
  • Videogiochi/Intrattenimento: Puoi usare questo software sia per registrare i movimenti di un personaggio sia per controllare un personaggio.

 

Dati prodotti e funzionalità supportate dal framework:

  • Coordinate dell’utente nello spazio 3D di:
    • Corpo umano (20 punti per corpo)
    • Mani (26 punti per mano)
  • Coordinate 2D del punto sullo schermo in cui l’utente sta guardando
  • Interazione vocale
  • Diverse modalità di interfacciamento per applicazioni di terze parti

Sei interessato ad integrare il framework nel tuo progetto? Contattaci!

 

 

🇬🇧 Whether it’s interaction by gesture, voice or even just by looking, this framework allows you to implement any interaction in your software. With simplicity.

Fields of application:

  • Disability: Refine the fine/gross motor skills. By subjecting targeted interactive games to the user, you can keep track of progress over time, and then make statistics about them. This allows you to treat not only in hostile places such as medical rooms but also in other contexts more pleasing to the individual.
  • Autism: Autistic subjects have great difficulty in establishing visual contact with other people but thanks to NAO, who can attract attention, visual contact is held for a long time; without the child experiencing intimidation or anxiety. Registering movements that give the robot a more “human” attitude helps to make sessions longer and more effective.
  • Artificial Intelligence: Allow humanoid robots or virtual characters to reproduce and recognize the gesture and the typical movements of an individual, giving them a “more humane” behaviour
  • Remote control of devices: In situations of danger or impossibility, it is essential to remotely control robots, in order to prevent damage to things or people (eg disinfection of devices).
  • Universal Language for Robots: Command n robots involves learning of different n interfaces. By using a universal language of gestures, a gesture is associated with a certain behavior, whatever the robot is. This would mean learning a single language for infinite robots!
  • Multimedia installation: Make the presentation of a product even more spectacular.
  • Video games/Entertainment: You can use this software to record a character’s movements or to control a character.

 

Produced data and features supported by the framework:

  • User’s coordinates in the 3D space of:
    • Human body (20 points per body)
    • Hands (26 points per hand)
  • 2D coordinates of the point on the screen where the user is watching
  • Voice interaction
  • Different ways of interfacing for third-party applications

Are you interested in integrating the framework in your project? Contact us!