FUN-Media consentirà comunicazioni multimediali immersive in rete di nuova generazione, garantendo la QoE attesa, permettendo comunicazioni empatiche, fornendo una reale sensazione di presenza, assicurando i contenuti attesi e l’autenticità dell’utente. Ciò è possibile grazie ai progressi tecnologici nel campo dei gemelli digitali, delle comunicazioni multimodali e multisensoriali, dell’interazione audio/acustica con l’utente, della distribuzione consapevole della QoE di contenuti affidabili, della generazione di media e delle rappresentazioni per esseri umani e macchine.
FUN-MEDIA fa parte dello Spoke 4 – Programmable Networks for Future Services and Media
PI di progetto: Enrico Magli
- gestione del progetto e acquisti per il Laboratorio Spoke
- algoritmi di metronomo adattivo e occultamento della perdita di pacchetti per mitigare l'impatto della latenza
- metodi per rilevare la manipolazione dell'audio
- studio dell'impatto della compressione e degli artefatti di trasmissione su nuvole di punti dinamiche e dense con test soggettivi per esplorare la QoE degli utenti con diverse combinazioni di degrado (compressione e perdita di pacchetti)
- controllo del movimento QoE-aware di uno sciame di droni per la videosorveglianza
- studio dell'effetto dell'adozione della realtà aumentata e virtuale sulla qualità percepita dall'utente
- previsione del viewport basata sull'apprendimento
- schemi di compressione basati sull'apprendimento e su modelli di diffusione
- metodi per la sparsificazione e la quantizzazione delle reti
- compressione di nuvole di punti e campi di luce
- un approccio all'apprendimento continuo federato asincrono.
- un metodo di compressione e trasmissione content-aware per i dati Lidar del settore automobilistico
- un metodo di apprendimento continuo per la segmentazione semantica delle immagini
- metodi per il rilevamento del parlato sintetico e manipolato
- un metodo per il rilevamento di deepfake
- un metodo per la previsione del viewport
- un metodo di apprendimento continuo federato
- uno studio sull'impatto della VR sull'attenzione degli utenti.
- Publications
Total number of publications (including journals and conference papers):
Expected: 36
Accomplished: 15
Readiness: 42% - Joint publications
(at least 30% of total number of publications)
Expected: 12
Accomplished: 2
Readiness: 17% - Talk, dissemination and outreach activities
(does not include conference presentations)
Expected: 9
Accomplished: 4
Readiness: 44% - Innovations
Expected: 10 items
Accomplished: 2 items submitted to mission 7
Readiness: 20% - Demo/PoC
Expected: 5 PoCs by the end of the project
Accomplished: 0
Readiness: 0% (work according to plan, as demo/PoCs are expected starting from the second year of the project).
- M1.1 First release of exploitation, dissemination and impact
Expected M12
Accomplished M12
Readiness 100% - M1.2 Second release of exploitation, dissemination and impact monitoring monitoring
Expected M24
Accomplished M12
Readiness 50% - M1.3 Third release of exploitation, dissemination and impact monitoring
Expected M36
Accomplished M12
Readiness 33% - M3.1 First release of audio and acoustic signal processing system
Expected M12
Accomplished M12
Readiness 100% - M3.2 Advanced release of audio and acoustic signal processing system
Expected M24
Accomplished M12
Readiness 50% - M3.3 Release of proof-of-concept of audio and acoustic signal processing system
Expected M36
Accomplished M12
Readiness 33% - M4.1 First release of experience-aware distribution system for authentic contents
Expected M12
Accomplished M12
Readiness 100% - M4.2 Advanced release of experience-aware distribution system for authentic contents
Expected M24
Accomplished M12
Readiness 50% - M4.3 Release of proof-of-concept of experience-aware distribution system for authentic contents
Expected M36
Accomplished M12
Readiness 33% - M6.1 First release of innovative media generation and representation system
Expected M12
Accomplished M12
Readiness 100% - M6.2 Advanced release of innovative media generation and representation system
Expected M24
Accomplished M12
Readiness 50% - M6.3 Release of proof-of-concept of innovative media generation and representation system
Expected M36
Accomplished M12
Readiness 33%
Proposte di collaborazione:
Elenco provvisorio (contattare il responsabile del progetto per maggiori informazioni):
- una collaborazione sulla performance musicale in rete, che consente ai musicisti di collaborare ed esibirsi insieme in tempo reale, superando i confini geografici. L’obiettivo è sviluppare un’esperienza musicale collaborativa più fluida e coinvolgente;
- una collaborazione su algoritmi efficienti basati su viewport per sistemi di streaming video omnidirezionali, che impiegano metodi di apprendimento automatico e sfruttano le informazioni di salienza;
- una collaborazione su modelli di rilevamento deepfake per le informazioni visive che impiegano reti neurali profonde;
- una collaborazione su campi di radianza neurali e splatting gaussiano per il rendering delle scene;
- una collaborazione su reti neurali a bassa complessità (ad esempio binarie) per l’inferenza e la compressione su dispositivi embedded;
È possibile avanzare proposte di collaborazione sul progetto contattando il PI del progetto.
FUN-Media News: