Che cos’è l’intelligenza artificiale?
L’intelligenza artificiale è un concetto molto ampio, che comprende una grande varietà di discipline, dall’informatica pura alle neuroscienze. Molto genericamente la si può definire come scienza che ha l’obiettivo di creare macchine in grado di risolvere problemi e compiere attività tipiche dell’intelligenza umana. L’ottimistico obiettivo finale, solo in parte raggiunto, è quello di realizzare software che, sfruttando le possibilità dell’informatica, si ispirino ai meccanismi di funzionamento del cervello umano e siano in grado di pensare ed agire autonomamente.
Lo sviluppo dell’intelligenza artificiale
Grazie ai progressi tecnologici, alla possibilità di mantenere in rete migliaia di computer che lavorano insieme e alla grandissima quantità di dati disponibile tramite Internet, i sistemi di intelligenza artificiale sono progrediti enormemente negli ultimi anni. Inizialmente infatti, essi si basavano su macchine a cui venivano impartite “dall’alto” le istruzioni sulle azioni da compiere, senza che il computer ne avesse esperienza. Questo sistema è chiamato AI (artificial intelligence) simbolica o “vecchia maniera“. Ad esempio, per insegnare a giocare a scacchi non è necessario far fare alla macchina milioni di partite affinché apprenda dai suoi errori, ma è sufficiente che nel software siano codificate tutte le regole del gioco. Le AI odierne invece imparano dall’esperienza e si basano su sistemi che, sfruttando i big data, funzionano tramite meccanismi di “tentativi ed errori” e sono strutturati sulle modalità di apprendimento umane.
Il machine learning
La modalità principale con cui oggi si insegna ad “imparare” ad un computer è infatti quella del machine learning, o apprendimento automatico. In questo tipo di programmazione, non vengono date al computer tutte le istruzioni, ma migliaia di dati dello stesso fenomeno. L’obiettivo è che il computer stesso possa capire da solo quali sono le regole e come comportarsi nei casi specifici. Ottenere il risultato non è semplice: vengono sperimentate varie modalità di apprendimento, tramite le quali si cerca di “allenare” l’AI, in modo che possa imparare dai propri errori e poi svolgere autonomamente compiti ed attività. Un noto esempio di machine learning sono i sistemi di visione artificiale, in cui l’algoritmo dev’essere in grado di riconoscere oggetti acquisiti digitalmente da sensori di immagine, ricordandosi ciò che ha già visto, per poi impiegarlo efficacemente nelle acquisizioni successive.
Il deep learning
Negli ultimi dieci anni, tramite la potenza di calcolo e la disponibilità di enormi banche dati per l’addestramento degli algoritmi di apprendimento, sono stati fatti passi da gigante. La realtà più innovativa è il deep learning, modalità di apprendimento automatico che si ispira alla struttura del cervello umano e quindi all’interconnessione dei vari neuroni. L’apprendimento “approfondito” sfrutta enormi modelli di reti neurali artificiali (insieme di computer collegati tra loro tramite un modello matematico che si ispira alle reti neurali biologiche), i progressi computazionali odierni e le diverse tecniche di allenamento, per apprendere modelli complessi attraverso un’enorme quantità di dati. Si parla di “deep” learning proprio a causa della “profondità” delle reti neurali, che coinvolgono numerosi livelli ed unità di elaborazione. Esempi di deep learning sono i sistemi di traduzione automatica o gli algoritmi in grado di classificare gli oggetti presenti in una fotografia.
L’intelligenza artificiale nella vita di tutti i giorni
Dall’assistente vocale Siri ai cookies che ci suggeriscono cosa acquistare in base alle nostre ultime ricerche in rete, passando per Google Translate fino al piccolo robot che ci aiuta nelle pulizie domestiche, l’intelligenza artificiale è presente in molti aspetti della vita quotidiana di ognuno di noi, oltre che in numerosi settori aziendali, come quello automobilistico, finanziario, biomedico. Sono molte le aziende che investono ormai da tempo nella produzione di intelligenze artificiali. Soprattutto quelle più affermate sul web, come Google e Facebook, sfruttano a proprio vantaggio la necessità dell’AI di disporre di tantissimi dati, poiché la rete neurale ha bisogno di essere allenata per impostare i propri parametri. La diffusione pervasiva di questi sistemi in moltissimi aspetti della nostra vita, pone svariati interrogativi sulle future applicazioni dell’AI.
I limiti tecnici delle intelligenze artificiali
Numerosi studiosi sostengono che le capacità dell’intelligenza artificiale possano arrivare solo fino ad un certo punto, indipendentemente dalla quantità di big data con cui si alimenta il software e dai crescenti poteri di calcolo dei computer. Questo perché il machine learning è una forma di apprendimento molto particolare, limitata e illimitata allo stesso tempo. Illimitata perché è di molto superiore all’apprendimento fisico del cervello umano ed è dunque in grado di trarre conclusioni generali da un’enorme massa di dati, cosa impossibile per il normale pensiero logico, che richiederebbe un tempo molto maggiore per risolvere i problemi.
Tuttavia, il machine learning e il deep learning sono anche forme limitate di apprendimento, poiché il computer rileva solo degli schemi, basati unicamente su correlazioni statistiche, ed è incapace di effettuare generalizzazioni e di ragionare in modo astratto, qualità tipiche dell’intelligenza umana. Molti studiosi si stanno interrogando sul futuro dell’AI e non sono affatto certi che essa possa svilupparsi tanto da raggiungere l’autonomia di pensiero umana e diventare così un’intelligenza artificiale vera e propria.
Acquisire conoscenza tramite correlazioni statistiche anziché tramite conclusioni logiche può essere pericoloso ed inefficace in alcuni contesti. Ad esempio, circa due anni fa, una self–driving car di Uber in Arizona aveva investito ed ucciso una donna che attraversava la strada spingendo la bicicletta al buio, in un punto dove la visibilità era limitata. L’algoritmo dell’automobile automatica non era stato in grado di identificare la figura che gli si era posta davanti, facendo confusione anche a causa di un’altra macchina, ed aveva infine riconosciuto unicamente la bicicletta. Proprio quest’indecisione del software nell’identificazione di un oggetto “misto” composto dalla donna e dalla bicicletta, due figure che l’algoritmo era stato allenato a riconoscere singolarmente, aveva causato la morte della donna.
I limiti etici e morali
Inoltre, benché siamo ancora lontani da un’intelligenza artificiale “forte”, ovvero macchine che hanno piena coscienza di sé, gli odierni sistemi di deep learning pongono numerosi problemi etici e sociali, specialmente nel campo lavorativo e in quello dei diritti civili. Le criticità aumentano soprattutto quando sono affidate agli algoritmi operazioni delicate, come la selezione del personale, la valutazione del credito di una persona o la previsione del livello di criminalità. Come spiega un articolo di Open, ciò avviene perché nell’AI vi è un’intrinseca tendenza ad assumere atteggiamenti discriminatori verso i soggetti più deboli della società.
Ad esempio, in un contesto statunitense, una persona di colore potrebbe essere sfavorita in partenza da un algoritmo che seleziona il personale, perché secondo i dati statistici, che non tengono conto delle mille varianti sociali e politiche in gioco, quella parte di popolazione è la più incline a commettere reati. La causa di questo fenomeno risiede negli stessi programmatori, che trasmettono ai computer i dati statistici, necessari per far funzionare le intelligenze artificiali e specchio dei pregiudizi esistenti nella nostra società. Proprio per questo motivo, affidare ad un algoritmo operazioni che prima erano di competenza umana può significare penalizzare le persone su base etnica e di genere.
I tentativi per un’intelligenza artificiale più equa
La comunità scientifica sta cercando di elaborare soluzioni per risolvere il problema dell’eticità dell’intelligenza artificiale: il 10 maggio scorso presso la National Science Foundation (NSF) in collaborazione con Amazon, sono state discusse le problematiche relative allo sviluppo di un’AI più equa. Anche l’Unione Europea ha steso le sue linee guida riguardo ai problemi etici che causa l’utilizzo diffuso dell’intelligenza artificiale in molti settori in cui in precedenza operavano menti umane.
Tuttavia, un’AI non può fare a meno dei dati statistici per funzionare. Una soluzione interessante è quella prodotta da un team di ricercatori di Stanford e dell’università del Massachusetts, che, tramite una ricerca pubblicata su Science, hanno provato a controllare le modalità con cui un algoritmo di machine learning possa evolversi, garantendone però l’equità. Per ottenere questo scopo, i ricercatori hanno realizzato dei particolari algoritmi (chiamati Seldonians da un personaggio di Isaac Asimov) che, interfacciandosi con l’intelligenza artificiale, correggono in modo matematico il suo comportamento e la allenano ad essere più equa. Ciò rende possibile per l’utente specificare i vincoli a cui il software deve attenersi, definendo quali sono i “comportamenti indesiderati” per la propria applicazione.
Quest’ultimo esempio ci fa capire che, così come influenziamo le macchine con i nostri pregiudizi, allo stesso modo possiamo influenzare positivamente le macchine intelligenti, rendendole più eque. Dunque, nonostante i sistemi di intelligenza artificiale siano utili e vantaggiosi se usati nel modo corretto, sarà difficile che in futuro i computer prevarranno sull’uomo in ogni ambito. Sembra molto probabile infatti che ci sarà sempre bisogno di “controllori” e programmatori umani che monitorino le attività delle intelligenze artificiali, facendosi garanti sia della loro efficacia che della loro eticità.
2 commenti