Fair innovationRivoluzione CulturaleSocietΓ  e Cultura

π„π­π’πœπš 𝐝𝐞π₯ πƒπ’π π’π­πšπ₯𝐞 𝐞 𝐝𝐞π₯π₯β€™πˆπ§π­πžπ₯π₯𝐒𝐠𝐞𝐧𝐳𝐚 𝐚𝐫𝐭𝐒𝐟𝐒𝐜𝐒𝐚π₯𝐞

3 Mins read

β€œπ‘π‘œπ‘– π‘‘π‘–π‘Žπ‘šπ‘œ π‘™π‘Ž π‘“π‘œπ‘Ÿπ‘šπ‘Ž π‘Žπ‘– π‘›π‘œπ‘ π‘‘π‘Ÿπ‘– π‘π‘Žπ‘™π‘Žπ‘§π‘§π‘–, 𝑒 π‘π‘œπ‘– π‘ π‘œπ‘› π‘žπ‘’π‘’π‘ π‘‘π‘– π‘Ž π‘‘π‘Žπ‘Ÿπ‘’ π‘“π‘œπ‘Ÿπ‘šπ‘Ž π‘Ž π‘›π‘œπ‘–β€ – π‘Š.πΆβ„Žπ‘’π‘Ÿπ‘π‘–π‘™π‘™

La rivoluzione dell’informazione Γ¨ sia tecnologica che concettuale: la tecnologia, diffusa oramai in modo capillare nelle nostre vite, ha cambiato non solo il modo in cui facciamo le cose ma anche come pensiamo il mondo. Se in un primo momento della rivoluzione si poteva distinguere tra il mondo on-line e quello off-line, ora lo spazio virtuale e quello fisico si stanno fondendo per cui si parla di on-life.
Per vedere l’impatto sulla nostra vita possono bastare due semplici esempi: prima partecipare a una conferenza significava esser presenti ed essere localizzati laddove si teneva la conferenza, ora i due aspetti sono separati, si puΓ² partecipare a una conferenza essendo distanti. Un altro esempio Γ¨ quello della guerra: le guerre tradizionali sono violente e si muore, ora a quelle tradizionali si affianca un altro tipo di guerra, la cyber war, aggressiva certo, ma nella realtΓ  virtuale non si muore.
Per governare questo cambiamento e l’impatto della tecnologia sulle nostre vite occorre darci dei principi e fissare dei valori che devono essere rispettati per poter evitare i rischi e sfruttare al massimo il potenziale buono della tecnologia. Per questo serve l’etica del digitale.
L’intelligenza artificiale puΓ² essere definita come una macchina che imita il comportamento umano per risolvere problemi specifici, capace di apprendere e di comportamento autonomo nell’ambiente.
E’ utilizzata oramai in moltissimi ambiti con successo, ci toglie l’incombenza di lavori monotoni, come tosare il giardino, ma ci aiuta anche a risolvere problemi molto difficili e puΓ² essere usata in supporto del nostro benessere. E’ stata utilizzata nella ricerca del vaccino per il Covid, puΓ² esser usata per studiare i meccanismi del climate change, per decidere la gestione delle risorse ambientali per uno sviluppo sostenibile.
Per l’intelligenza Artificiale si presentano 5 tipologie di rischio:
β€’ Favorire gli errori umani: un esempio di questo tipo di rischio sono i bias, i pregiudizi per cui le macchine riproducono gli errori umani nella correlazione dei dati usato per profilare individui o gruppi di individui ai fini di ricerca o commerciali. La macchina puΓ² essere utilizzata in modo discriminatorio. Un caso famoso Γ¨ stato quello di un algoritmo che doveva monitorare le famiglie americane per segnalare gli abusi sui minori e che riportava piΓΉ spesso le famiglie afroamericane.
β€’ Ridurre la capacitΓ  di controllo: l’IA puΓ² essere vista come una black box che prende decisioni, ma non in modo trasparente, avendo impatto sulle nostre vite. Ad esempio in Amazon era emerso che l’algoritmo di selezione del personale discriminava le donne.
β€’ La rimozione delle responsabilitΓ : Γ¨ sbagliato antropoformizzare le macchine, la responsabilitΓ  delle loro azioni Γ¨ comunque dell’essere umano.
β€’ La svalutazione delle capacitΓ  umane: il fatto che delle macchine siano in grado di analizzare una radiografia oppure di far atterrare un aereo non implica che gli umani cessino di saperlo fare, altrimenti perdiamo la possibilitΓ  di capire quando le macchine sbagliano
β€’ L’erosione della capacitΓ  di autodeterminazione: la tecnologia proattiva media tra noi e il mondo intorno a noi, spingendoci verso certe scelte piuttosto che in altre direzioni, dobbiamo esserne coscienti. Esempio pratico sono i suggerimenti di acquisto di libri o altri oggetti in base ai nostri gusti.
Dobbiamo quindi identificare i valori che vogliamo difendere e creare delle regole per evitare gli errori che portano ai rischi sopra elencati: Γ¨ necessario trovare un bilanciamento, perchΓ¨ regole troppo restrittive porterebbero ad annullare i benefici derivanti dall’innovazione.
A questo proposito un esempio Γ¨ dato dal GDPR, un regolamento che ha come principio di base la centralitΓ  della dignitΓ  umana e la difesa della privacy. Un eccesso di rigiditΓ  porta perΓ² a difendere la privacy a danno di altri valori quale potrebbe essere la salute.
L’etica deve essere declinata in funzione dei dati, degli algoritmi e delle pratiche, ad esempio definendo le responsabilitΓ  degli sviluppatori e degli utenti.
L’Unione Europea ha pubblicato da poco nel 2019 le linee guida β€œOrientamenti etici per una AI affidabile”.
La governance deve assicurare che lo sviluppo della societΓ  digitale sia conforme ai valori della nostra societΓ . Valori che si vuole salvaguardare sono il mantenimento di societΓ  aperte e plurali, dove non siano consentire fake news. VerrΓ  il momento in cui il digitale cesserΓ  di essere un’innovazione si parlerΓ  allora di societΓ  post-digitale: come sarΓ  questa societΓ  dipende dalla capacitΓ  di governo di questo sviluppo.
Related posts
Ittica NewsSocietΓ  e CulturaStorie Diverse

6000 Sardine: la tempesta perfetta

2 Mins read
“L’associazione 6000 Sardine ha deciso di non entrare nella costituente del PD e di non sostenere alcun candidato” A ripensarci l’unica logica…
elezioniIttica Newspolitica italianaSocietΓ  e Cultura

L'Italia Γ¨ ancora in piedi perchΓ© non sa da che parte cadere

2 Mins read
Di come Donzelli, Delmastro e tutti i post fascisti gettino palate di sterco su ciΓ² che resta della democrazia in Italia Γ¨…
Ittica NewsSocietΓ  e CulturaStorie Diverse

Pillole di memoria

1 Mins read
La memoria si esercita. Non basta citare Primo Levi sui social e poi tornare ad essere le stesse merde egoiste di sempre….
Entra nellaΒ ItticaΒ Community

Non perderti i contributi dei nostri autori e rimani aggiornato sulle iniziative ittiche!