ENG

Pop-AI

A European Positive Sum Approach towards AI tools in support of Law Enforcement and safeguarding privacy and fundamental rights

Il progetto è un’azione di coordinamento e sostegno della durata di 24 mesi che riunisce professionisti della sicurezza, scienziati dell’IA, ricercatori dell’etica e della vita privata, organizzazioni della società civile nonché esperti di scienze sociali e umanistiche allo scopo di consolidare le conoscenze, scambio di esperienze e sensibilizzazione nel settore dell’UE, secondo una metodologia di lavoro ben pianificata. La visione di base della Pop-AI è quella di promuovere la fiducia nell’IA per il settore della sicurezza attraverso una maggiore consapevolezza, un costante impegno sociale, il consolidamento di distinte sfere di conoscenza e l’offerta di una visione europea unificata attraverso le LEA e i risultati delle conoscenze specializzate (raccomandazioni, roadmaps, ecc.) creando nel contempo un ecosistema che costituirà la base strutturale per un hub europeo dell’IA sostenibile e inclusivo per l’applicazione della legge.

Il progetto si propone di utilizzare le conoscenze esistenti, ma anche una vasta serie di studi, per identificare e registrare gli stakeholder diretti e indiretti del contesto “sicurezza e AI”, così come i loro rispettivi punti di vista (preoccupazioni, opportunità percepite, sfide). Questa registrazione mira a approfondire ulteriormente le interazioni dinamiche di queste parti interessate e a garantire un’adeguata rappresentanza del genere e della diversità nei processi partecipativi. In questo modo Pop-AI attingerà alla ricca conoscenza dei professionisti della sicurezza, delle organizzazioni della società civile e dei cittadini, nonché degli esperti di scienze sociali e umanistiche, per definire interazioni e materiali appropriati che consentiranno la co-creazione all’interno dell’ecosistema.

Partners europei

Coordinatore: National Center For Scientific Research “Demokritos” Csrd (GR), Trilateral Research Limited (IRL), Eticas research and innovation (ES), KEMEA (GR), CERTH (GR), Technische Universiteit eindhoven (NL), Zanasi Alessandro SRL (IT), European citizen action service (BE), Hellenic Police (GR), HFOD (DE), Gobierno Vasco Departamento seguridad (ES), APZ (SL).

Il progetto a Torino

Il PLTO sarà coinvolto nella ricerca e nell’analisi delle attuali funzionalità IA utilizzate in sicurezza, con l’obiettivo di evidenziare le caratteristiche tecniche delle diverse soluzioni e funzionalità. In particolare, l’uso dell’IA nelle forze di polizia sarà esplorato concentrandosi su questioni organizzative e correlate quali l’impatto dei processi tecnologici sulla salute e la sicurezza, l’autonomia o la responsabilità delle LEAs. La ricerca e l’analisi saranno realizzate con un Stakeholder Policy Labs, al fine di facilitare lo scambio tra le LEA pertinenti e gli esperti correlati, sviluppare idee per le politiche intelligenti e testare la soluzione di controversie individuate in modelli sperimentali.

Le azioni concrete

  • Analisi del quadro teorico legale, etico e sociale relativo all’uso di strumenti di IA nel campo della sicurezza
  • Ricerca empirica sugli strumenti di IA nel settore della sicurezza, sensibilizzazione, accettazione sociale ed etica
  • Raccomandazioni finali/migliori pratiche/libro bianco, coordinamento e attività di rete con le parti interessate in tutta Europa

I numeri

  • Contributo UE alla Città di Torino: € 98.500,00
  • Durata del progetto: 23 mesi ( ottobre 2021 – settembre 2023)
  • Partner: 13

Questo progetto è stato finanziato dal programma di ricerca e innovazione Horizon 2020 dell’Unione Europea con l’accordo di sovvenzione n. 101022001.

95,5K

Contributo UE alla città di Torino

13

Partner

23

Durata progetto in mesi

LINK PROGETTO

SOCIAL ACCOUNTS