TUTTO NEWS
Credits: Linkedin Priyanjali Gupta
23 Ottobre 2024
Redazione 105
Priyanjali Gupta, studentessa del terzo anno di informatica presso il Vellore Institute of Technology, ha raggiunto un traguardo importante nel campo dell’intelligenza artificiale. Grazie alle sue competenze in scienza dei dati, ha creato un modello di IA in grado di tradurre la lingua dei segni americana (ASL) in inglese in tempo reale, aprendo nuove possibilità di comunicazione inclusiva.
L’idea alla base del progetto è nata grazie alla madre di Priyanjali, che l'ha sfidata a utilizzare le sue conoscenze per realizzare un progetto concreto e utile. Dopo un anno di intenso lavoro, ha sviluppato un modello basato su deep learning utilizzando la tecnologia di TensorFlow e tecniche di transfer learning con il modello pre-addestrato ssd_mobilenet.
Il sistema è stato addestrato a riconoscere sei segni fondamentali della lingua dei segni americana: “Ciao”, “Ti amo”, “Grazie”, “Per favore”, “Sì” e “No”. Utilizzando una semplice webcam, il modello riconosce questi segni e li traduce in tempo reale in testo inglese, consentendo una comunicazione immediata tra chi usa la lingua dei segni e chi non la conosce.
Il progetto ha avuto un forte impatto, ottenendo oltre 58.000 reazioni su LinkedIn. Tuttavia, Priyanjali è consapevole delle sfide che ancora attendono lo sviluppo di questo tipo di tecnologie. Il suo obiettivo futuro è migliorare il modello addestrandolo anche su video, utilizzando reti LSTM (Long-Short Term Memory), per riconoscere sequenze di segni in movimento e non solo singoli fotogrammi. Questo aggiornamento potrebbe rappresentare un ulteriore passo avanti nella traduzione in tempo reale della lingua dei segni.
L’invenzione di Priyanjali Gupta ha attirato l’attenzione della comunità tecnologica, dimostrando come l’intelligenza artificiale possa abbattere barriere comunicative e contribuire a una maggiore inclusività sociale.