{"id":139252,"date":"2019-04-04T06:46:48","date_gmt":"2019-04-04T13:46:48","guid":{"rendered":"https:\/\/www.genesys.com\/?post_type=blog&#038;p=139252"},"modified":"2019-04-04T06:46:48","modified_gmt":"2019-04-04T13:46:48","slug":"parliamo-di-etica-dellai-fare-i-conti-con-lequita-nei-modelli-predittivi-basati-sullintelligenza-artificiale","status":"publish","type":"blog","link":"https:\/\/www.genesys.com\/it-it\/blog\/post\/parliamo-di-etica-dellai-fare-i-conti-con-lequita-nei-modelli-predittivi-basati-sullintelligenza-artificiale","title":{"rendered":"Parliamo di etica dell\u2019AI: fare i conti con l\u2019equit\u00e0 nei modelli predittivi basati sull\u2019Intelligenza Artificiale"},"content":{"rendered":"<p>&nbsp;<\/p>\n<p>L\u2019equit\u00e0 \u00e8 uno dei pilastri alla base delle linee guida etiche dell\u2019Intelligenza Artificiale (AI) di Genesys. Spesso indicata come \u201cAI morale\u201d l\u2019equit\u00e0 pu\u00f2 essere paragonata alle teorie del filosofo tedesco del 18\u00b0 Secolo <a href=\"https:\/\/www.britannica.com\/biography\/Immanuel-Kant\">Immanuel Kant<\/a>. Questi defin\u00ec le leggi morali come principi assoluti verificabili che sono veri per tutti e la cui validit\u00e0 non dipende da alcun ulteriore motivo o risultato prodotto. \u201cNon dire falsa testimonianza,\u201d \u00e8 un buon esempio di una regola morale, o massima, e rappresenta un valido punto di partenza di questa discussione.<\/p>\n<p>Il primo di questa serie di blog sull\u2019etica della AI ha affrontato i <a href=\"https:\/\/www.genesys.com\/blog\/post\/lets-talk-ai-ethics-the-social-benefits-of-artificial-intelligence\">benefici sociali della AI<\/a>\u00a0e come questa stia introducendo miglioramenti che cambiano la vita a livello globale. In questo secondo articolo esaminiamo invece il principio di equit\u00e0 nell\u2019etica della AI, e il problema della parzialit\u00e0.<\/p>\n<p><strong>Equit\u00e0 dell\u2019opportunit\u00e0 ed equit\u00e0 dei risultati<\/strong><\/p>\n<p>Un modo per guardare al tema della AI e dell\u2019equit\u00e0 \u00e8 quello del tipo di imparzialit\u00e0 che deve essere indirizzato e se si tratta di equit\u00e0 dell\u2019opportunit\u00e0 o di equit\u00e0 del risultato. Entrambe le tipologie trovano posto nella societ\u00e0.<\/p>\n<p>L\u2019equit\u00e0 dell\u2019opportunit\u00e0 appare negli sport, dove ognuno gioca secondo le regole. Il risultato non \u00e8 predeterminato, ma tutti lo accettano \u2014vittoria o sconfitta\u2014in base allo svolgimento, appunto, imparziale della partita.<\/p>\n<p>L\u2019equit\u00e0 del risultato si verifica invece durante una cena in famiglia. Quando il cibo viene servito, tutti ricevono una porzione corretta. In altre parole, indipendentemente da quanto ciascun membro della famiglia abbia contribuito alla preparazione del pasto, tutti ottengono un risultato uguale o giusto.<\/p>\n<p>Un modello predittivo come il machine learning, produrr\u00e0 un risultato imparziale, supponendo che un\u2019opportunit\u00e0 imparziale sia basata su:<\/p>\n<ul>\n<li><strong>Dati<\/strong>: I tuoi dati sono corrotti o alterati?<\/li>\n<li><strong>Domande<\/strong>: Se no, stai facendo le domande giuste?<\/li>\n<li><strong>Priorit\u00e0 e valori<\/strong>: Se s\u00ec, hai bisogno di rivalutare le tue priorit\u00e0?<\/li>\n<\/ul>\n<p>La domanda chiave non \u00e8 \u201cesiste una parzialit\u00e0?\u201d bens\u00ec se, creata da dati, domande e priorit\u00e0 o valori, \u00e8 una parzialit\u00e0 moralmente neutrale. Se \u00e8 questo il caso, allora i risultati sono imparziali. \u00c8 anche importante distinguere tra parzialit\u00e0 socialmente ingiuste, parzialit\u00e0 derivanti da misurazioni tecniche e parzialit\u00e0 che rientrano all\u2019interno del dominio della AI.<\/p>\n<p>In altre parole, l\u2019adattamento di un modello AI predittivo, perch\u00e9 raggiunga risultati favorevoli, viene esplicitamente eseguito in tre modi:<\/p>\n<ol>\n<li>Scelta dei dati;<\/li>\n<li>Adeguamento delle parzialit\u00e0 \u0336 \u00a0regolare la varianza tra previsioni e valori reali;<\/li>\n<li><a href=\"https:\/\/datascience.stackexchange.com\/questions\/19099\/what-is-weight-and-bias-in-deep-learning\">Contrappesi <\/a>\u0336\u00a0 valutare la forza della connessione e, quando si aumentano i dati in ingresso, decidere quanto questo influenzi il risultato prodotto.<\/li>\n<\/ol>\n<p><strong>Dove le buone intenzioni sbagliano<\/strong><\/p>\n<p>Anche quando si usa questa metodologia, esiste un\u2019area grigia all\u2019interno della calibrazione dell\u2019AI per eliminare quelle parzialit\u00e0 sociali dannose che possono creare problemi. Pre-ordinare un risultato perch\u00e9 pensi che sia equo e ingegnerizzare una decisione parziale verso di esso crea una profezia che si auto avvera. Questo pu\u00f2 avere implicazioni molto negative, suggerendo che sia giustificato un pesante \u201caggiramento del sistema\u201d o \u201cimbroglio\u201d nel nome della giustizia. Se carichiamo i sistemi con dati parziali, anch\u2019essi allora si dimostreranno parziali.<\/p>\n<p>Il capo dell\u2019AI di Google, John Giannandrea, scorge anche lui i\u00a0<a href=\"https:\/\/www.technologyreview.com\/s\/608986\/forget-killer-robotsbias-is-the-real-ai-danger\/\">pericoli all\u2019interno degli algortimi <\/a>che vengono usati per prendere milioni di decisioni ogni minuto. I sistemi di machine learning basati su cloud sono progettati per essere molto pi\u00f9 semplici da usare rispetto agli algoritmi sottostanti. Mentre questo rende la tecnologia pi\u00f9 accessibile, potrebbe anche rendere pi\u00f9 semplice l\u2019insinuarsi di parzialit\u00e0 dannose. Ad esempio, gli algoritmi di news feed possono influenzare le percezioni pubbliche, mentre altri algoritmi possono distorcere il tipo di assistenza medica che una persona riceve o come viene trattata nel <a href=\"https:\/\/www.propublica.org\/article\/how-we-analyzed-the-compas-recidivism-algorithm\">sistema che amministra la giustizia<\/a>.<\/p>\n<p>Negli ultimi anni, Facebook \u00e8 stata criticata per l\u2019uso della tecnologia che permetteva ai proprietari di discriminare <a href=\"https:\/\/www.propublica.org\/article\/facebook-lets-advertisers-exclude-users-by-race\">in base alla razza <\/a>e ai datori di lavoro di farlo <a href=\"https:\/\/www.nytimes.com\/2017\/12\/20\/business\/facebook-job-ads.html?module=inline\">in base all\u2019et\u00e0<\/a>. La tecnologia ha inoltre\u00a0<a href=\"https:\/\/www.nytimes.com\/2018\/09\/18\/business\/economy\/facebook-job-ads.html\">facilitato la discriminazione per genere<\/a>\u00a0da parte dei datori di lavoro relativamente all\u2019esclusione di candidati donne dalle campagne di reclutamento. In molti Paesi tutte queste aree sono tutelate dalla legge. Esistono poi dei problemi globali da considerare. Un <a href=\"https:\/\/www.technologyreview.com\/s\/612341\/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem\/\">esperimento condotto dal MIT Media Lab <\/a>ha analizzato i dati provenienti da 40 milioni di decisioni sulle preferenze morali, rivelando la divergenza tra etiche cross-culturali.<\/p>\n<p>Alcuni suggeriscono che le strade per eliminare le decisioni parziali \u00e8 di pubblicare i dettagli dei dati o degli algoritmi usati. Ma molte delle pi\u00f9 potenti tecniche di machine-learning emergenti si dimostrano molto complesse e oscure nel modo in cui lavorano. E resistono a un esame attento. La nostra opinione \u00e8 che il luogo migliore da dove cominciare deve essere alla radice, con un forte riferimento ai secolari imperativi morali di Kant.<\/p>\n<p><strong>Quando l\u2019AI porta a risultati imparziali<\/strong><\/p>\n<p>Stiamo vivendo l\u2019epoca dell\u2019esperienza, quando <a href=\"https:\/\/www.genesys.com\/blog\/post\/build-a-better-customer-experience-future\">il come le cose accadono conta quanto quello che sta accadendo.<\/a>\u00a0Con una maggiore discussione e comprensione della modellazione predittiva e del machine learning, le aziende possono prevedere meglio problemi potenziali e costruire un\u2019equit\u00e0 nei rispettivi modelli predittivi basati sulla AI. In fondo, una Customer Experience positiva dipende da risultati che siano realmente equi.<\/p>\n<p>Segui la nostra prossima serie di blog mentre proseguiamo ad esplorare gli argomenti sull\u2019etica della AI. <a href=\"https:\/\/www.genesys.com\/campaign\/ai-ethics\">Partecipa all<\/a>a<a href=\"https:\/\/www.genesys.com\/campaign\/ai-ethics\"> discussione sull\u2019etica della AI<\/a><strong>.<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>&nbsp; L\u2019equit\u00e0 \u00e8 uno dei pilastri alla base delle linee guida etiche dell\u2019Intelligenza Artificiale (AI) di Genesys. Spesso indicata come \u201cAI morale\u201d l\u2019equit\u00e0 pu\u00f2 essere paragonata alle teorie del filosofo tedesco del 18\u00b0 Secolo Immanuel Kant. Questi defin\u00ec le leggi morali come principi assoluti verificabili che sono veri per tutti e la cui validit\u00e0 non [&hellip;]<\/p>\n","protected":false},"author":591,"featured_media":127873,"template":"","tax_priority":[],"tax_blogtype":[17742],"tax_blogcategory":[15948,13114,16006,13094],"tax_contenttheme":[],"tax_bundle":[],"tax_contenttheme2":[],"tax_capability_sitewide":[],"tax_products_programs":[],"tax_buying_job":[],"tax_buyer_persona":[],"tax_sector":[],"tax_segment":[],"class_list":["post-139252","blog","type-blog","status-publish","has-post-thumbnail","hentry","tax_blogtype-partners-it-it","tax_blogcategory-ai-and-machine-learning-it-it","tax_blogcategory-cloud-it-it","tax_blogcategory-ecosystem-it-it","tax_blogcategory-business-optimization-it-it"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/blog\/139252","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/blog"}],"about":[{"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/types\/blog"}],"author":[{"embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/users\/591"}],"version-history":[{"count":1,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/blog\/139252\/revisions"}],"predecessor-version":[{"id":139253,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/blog\/139252\/revisions\/139253"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/media\/127873"}],"wp:attachment":[{"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/media?parent=139252"}],"wp:term":[{"taxonomy":"tax_priority","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_priority?post=139252"},{"taxonomy":"tax_blogtype","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_blogtype?post=139252"},{"taxonomy":"tax_blogcategory","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_blogcategory?post=139252"},{"taxonomy":"tax_contenttheme","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_contenttheme?post=139252"},{"taxonomy":"tax_bundle","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_bundle?post=139252"},{"taxonomy":"tax_contenttheme2","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_contenttheme2?post=139252"},{"taxonomy":"tax_capability_sitewide","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_capability_sitewide?post=139252"},{"taxonomy":"tax_products_programs","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_products_programs?post=139252"},{"taxonomy":"tax_buying_job","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_buying_job?post=139252"},{"taxonomy":"tax_buyer_persona","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_buyer_persona?post=139252"},{"taxonomy":"tax_sector","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_sector?post=139252"},{"taxonomy":"tax_segment","embeddable":true,"href":"https:\/\/www.genesys.com\/it-it\/wp-json\/wp\/v2\/tax_segment?post=139252"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}