Browse By

INCOSCIENZA ARTIFICIALE di Francesco Centineo

377 visite totali, 1 visite odierne

“IASIMA” così la chiama Chiriatti – nel suo saggio Incoscienza Artificiale –  alla cosiddetta Intelligenza artificiale. IA? Si, ma… in che senso? Nel senso che come afferma Massimo Chiriatti, tecnologo e dirigente informatico, che collabora con università e consorzi per eventi di formazione sull’economia digitale, ed esperto di innovazione e futuro del lavoro ed è autore anche di #Humanless. L’algoritmo egoista , l’IA tutt’è tranne che intelligente “sarebbe meglio, quindi, sostituire “intelligenza”, che ha un’accezione positiva con “incoscienza”, poiché gli algoritmi, eseguendo regole che imparano autonomamente dai dati, producono risultati senza alcuna comprensione e coscienza di ciò che stanno facendo”.

Questo, troppo spesso, le persone tendono a dimenticarlo, altresì non si rendono conto che ormai la tecnologia ha raggiunto livelli tali da aver prodotto “macchine autonome”, materiali e soprattutto “immateriali” come i chatbot ed altre diavolerie fisiche e virtuali generate dall’avvento della ”Incoscienza Artificiale” che influiscono, interagiscono, influenzano le nostre vite a tal punto da decidere in molti ambiti per noi! Il saggio del Chiriatti si concentra su questo dilemma. Dove stiamo andando? Chi stiamo diventando? Che cosa stiamo facendo? Siamo sicuri di aver compreso bene che cos’è questa “Incoscienza Artificiale” e come dobbiamo usarla? Cosa succederà nell’avvenire e quali dovrebbero essere le misure da prendere?

Chiriatti con questo brillante lavoro ci aiuta a barcamenarci in questo prossimo futuro che potrebbe colorarsi a tinte “distopiche” se non comprendiamo bene almeno due aspetti: 1) le macchine sono una nostra creazione e dobbiamo quindi sub-ordinarle alla nostra volontà 2) per fare questo dobbiamo imparare a fare le giuste domande e le giuste ricerche  (ah se solo la ricerca e la “scienza” fossero pubbliche) per comprendere bene come tali algoritmi vengono programmati e, soprattutto, dobbiamo prendere e pretendere il “dominio” dei nostri dati – insomma dovremmo abbattere il sistema capitalistico e superare il modello della competizione (sic!)

Come osserva Chiriatti “Quale controllo abbiamo sulle macchine ormai piene di nostri dati e di algoritmi scritti da pochissime persone?” Ed è perciò che per Chiriatti “Nel futuro, a contare non saranno le risposte ma le domande.” E qui il tecnologo pone una questione complicata ed in effetti centrale;  scrive Chiriatti: “Possiamo computare la fiducia che affidiamo alle macchine? Si, ma solo se nelle loro risposte sono compresi il chi, cosa, dove, quando, come e soprattutto perchè.”  E questo sottolinea la necessità che la tecnologia ed il sapere scientifico non siano dominio e proprietà di grandi multinazionali e dei poli “tecno-militari” delle grandi potenze.

In caso poi si superasse questo scoglio, a quel punto avrebbe ragione Chiriatti. Basterebbe  che ci rendessimo conto che è “evidente che le macchine non hanno le abilità necessarie a rispondere, ed è solo comprendendo bene i campi di applicazione e i limiti dell’IA che riusciremo scrollarci di dosso gli entusiasmi e gli scetticismi più ingenui.” – perchè bisogna essere scettici ma con cognizione di causa. Bisogna rendersi assolutamente conto che “Stiamo essenzialmente delegando la nostra fiducia a un’entità che, come abbiamo capito, non è assolutamente in grado di comprendere quello che comporta ogni sua azione e che non può esserne responsabile.”

Chiriatti perciò lancia un monito che dobbiamo accogliere e fare nostro, perchè il punto è proprio questo: “Stiamo cercando attraverso le macchine di deresponzabilizzarci, quando invece dovremo essere più responsabili per evitare rischi sistemici e imprevedibili.” Alchè la domanda è lecita: “Perchè ci comportiamo così?” Per il saggista “alcune cause di questo comportamento sono storiche: le persone connesse in rete sono lontane nello spazio, mentre i tempi di comunicazione si accorciano; altre sono tecniche ed economiche: la facilità di ottenere risposte su tutto in  real time ; altre ancora sono sociali: non ci fidiamo più dell’altro, e neanche di noi stessi.” – siamo giunti a tal punto e questo è un dramma.

Perchè “se questo è vero allora stiamo cambiando il mondo alla cieca: siamo ciechi davanti alla mole di dati, ciechi di fronte ai pregiudizi contenuti in dati e in modelli, ciechi perchè non sappiamo dove stiamo andando . Eppure, ci stiamo affidando alle macchine più che agli esperi perchè Iasima  sembra ma (non è) agnostica e affidabile.” Ma perchè non può essere affidabile “Iasima” non può essere affidabile? La risposta è semplice, scontata e lapalissiana, eppure, ai più, sembra non entrare in testa, soprattutto ai magnate che continuano a sognare ad occhi aperti, ad investire miliardi in progetti assurdi e a sparare cialtronerie per legittimare tale narrazione agli occhi della gente e speculare sui mercati.

Massimo Chiriatti giustamente osserva che “Il problema è che ci comportiamo come se il mondo fosse un dominio lineare, mentre non è così. Un dominio lineare è prevedibile e ha un basso grado di interazione tra gli elementi che contiene; in un dominio complesso, invece i legami causali sono difficilmente visibili e la prevedibilità estremamente bassa. […] In psicologia  ed economia ci sono fattori e cause che semplicemente non capiamo, o che hanno così alti livelli di interdipendenza che le previsioni ex ante sono inaccessibili dal punto di vista computazionale; pertanto le previsioni diventano disponibili solo ex post.”

Questo perchè la realtà è irriducibile, è incalcolabile ed è imprevedibile, perciò invece di venerare l’intelligenza artificiale e perseguire autisticamente come fanno le nostre istituzioni la svolta digitale in tutti gli ambiti delle nostre esistenze  “sarebbe meglio far risolvere a Iasima sia i problemi deterministici sia quelli probabilistici, e lasciare a noi tutto il resto, ossia quando ci sono novità, incertezze e quando servono astrazione, intuizione e creatività” a meno che non preferiamo trasformarci in dei robot, in dei burattini di carne umana, subordinati, sottomessi, soggetti assoggettati a degli artefatti irresponsabili ed incoscienti. Altroché transumani qua al massino ci trasformeremo in sub-umani.

Un pensiero su “INCOSCIENZA ARTIFICIALE di Francesco Centineo”

  1. Ares dice:

    Intelligenza , conoscenza e coscienza sono aspetti potenzialmente distinti.
    Con l’intelligenza posso manipolare simboli elementi, oggetti; con l’intelligenza posso effettuare pianificazioni, calcoli, premeditazioni, tentativi di far evolvere la situazione. Se l’intelligenza agisce correttamente sviluppa calcoli corretti, altrimenti se l’intelligenza sbaglia le cose non evolvono come aveva previsto l’intelligenza. Ma nulla vieta che l’intelligenza sia usata per il bene o per il male; posso voler calcolare i modo per condividere in modo maggiore delle risorse o accentrarle, posso voler calcolare il risultato di 2+2 per attivare la sequenza di lancio di un missile o per disinnescare una bomba, posso essere lo scienziato pazzo che cerca il modo più efficace di distruggere il mondo o quello di salvarlo. (O, viceversa, posso essere il bambinone buono e stupido o ancora il bifolco cattivo, ad esempio; intelligenza e coscienza sono fattori slegati e possono presentarsi nelle varie combinazioni).
    Con la conoscenza posso sapere e capire i fenomeni, le leggi fisiche, gli elementi, .. che sorreggono un certo sistema di cose, posso conoscere teorie scientifiche, informazioni o altro. Senza un’intelligenza posso però non essere in grado di applicare la conoscenza in modo utile; potrei sapere tutto di atomi, quark, teoria quantistica, teoremi matematici, ma magari non saper risolvere un particolare problema pratico. La conoscenza può essere usata per il bene o per il male. Per secoli l’uomo ha agito senza conoscere pienamente le cause di cose, individuando anzi spiegazioni errate come la teoria del miasma o teorie anche solo scientifiche poi corrette e aggiornate nel corso del tempo. (E, nonostante le conoscenze incomplete, imparando anzi grazie anche a errori, è riuscito anzi a far progredire la tecnica nel corso del tempo, ad esempio). Peraltro uno degli aspetti possibilmente riconducibili all’intelligenza è la capacità di astrarre, di agire anche in assenza di informazioni o in parzialità di esse. Anzi, al giorno di oggi in molte interazioni umane l’uomo conosce solo un’interfaccia di interazione con l’oggetto, ma non ha conoscenza di tutto quello che consente anche solo all’utilizzo e funzionamento dell’oggetto. Uno sciacquone può essere utilizzato anche da dei bambini, ma un bambino ( e non solo lui) non necessariamente sa com’ è fatto internamente e su quali principi funziona uno sciacquone (per non parlare di macchinette del caffé o quant’altro); molti interagiscono con elettrodomestici senza avere conoscenza degli algoritmi e dei componenti elettronici che ci sono dentro , ma li usiamo comunque anche senza conoscenze. O, ancora, viviamo in un universo infinito del quale ignoriamo informazioni su chissà quanti quark o oggetti luminosi, con dati che ci giungono magari con anni luce di ritardo anche qualora abbiamo i mezzi tecnologici per interpretarli, ma non per questo non possiamo vivere in modo potenzialmente intelligente su un pianeta di quell’intero universo che conosciamo così poco.

    Una scimmia che usa una cassa per raggiungere la banana è in genere considerata usare l’intelligenza ; un robot opportunamente attrezzato e equipaggiato può fare lo stesso. E, in realtà, ai fini di molte analisi poco importa se per il robot comunque si è trattato di una lunga manipolazione di sequenze di 0 e di 1, di bit binari (o altro che venga a sostituirli); può essere più rilevante determinare se il robot mi ha dato un coltellata o meno rispetto a determinare esattamente lo stato esatto della sua memoria in un certo momento. (Ma del resto molti aspetti dell’agire umano sono legati a scambi di sostanze chimiche, neurotrasmettitori, impulsi elettrici, .. che caratterizzano anche un aspetto meccanicistico nell’essere umano; come qualcuno ha notato altrove, quello che in ultimo differenzierebbe in modo definitivo un umano da un robot sarebbe la possibilità di avere un’anima o u aspetto spirituale che vada al di là dei soli aspetti meccanici e anche in questo caso la caratteristica che distingue l’anima non è tanto l’intelligenza, perché anche un neonato o ritardato mentale può avere l’anima, ma il libero arbitrio e la capacità di scegliere, di fare scelte in coscienza al di là di quanto si riesce a capire e concepire delle scelte stesse; il poter girare a destra piuttosto che a sinistra anche se non si hanno chiare tutte le conseguenze dell’una o altra scelta).
    In realtà quindi una macchina può saper fare dei conti o delle elaborazioni (indipendentemente che esse abbiano un qualche significato per la macchina o che poi siano ad esempio utilizzate in contesti totalmente diversi; la calcolatrice mi restituisce un numero risultato dell’operazione anche se non sa cosa ci farò io) e l’aspetto che più può essere rilevante non è tanto se la macchina è stata intelligente o no ma cosa ha prodotto e come si è “comportata”, come ha fatto evolvere la situazione indipendentemente da quale sia il perché , al di là di decidere se sia stata “intelligente” o meno. E le macchine, come gli strumenti, possano essere usate per il bene e per il male. Del resto anche le azioni degli uomini possono risultare in scelte buone o malvagie; se le macchine poi agiscono in base a come sono programmate (aspetto che dovrebbe essere il punto distintivo della macchina, la possibilità di replicare sempre uno stesso tipo di comportamento con regolarità) e a programmarle sono degli esseri umani allora i programmi potranno presentare errori e problemi; le macchine stesse poi possono avere guasti fisici, meccanici, perdite di memoria, sbalzi di corrente …. .
    Nel caso di una macchina vi è quindi almeno da assicurarsi a che fine è stata programmata, se il programma è stato realizzato secondo le intese e se la macchina sta funzionando correttamente; ora in teoria ciascuno di questi aspetti può presentare problemi ma il vantaggio con le macchine è che potenzialmente ciascuno di questi aspetti è meglio analizzabile separatamente qualora si abbiano le giuste informazioni. L’intelligenza artificiale aggiunge un possibile livello di complessità in più, in quanto rispetto ad uno stato di programmazione iniziale vi è da verificare quale particolare percorso di evoluzione, di “apprendimento”, ha subito la macchina, ad esempio con quali dati è stata addestrata, che informazioni e stimoli a ricevuto e che stato ha raggiunto , richiedendo magari possibilmente maggiori controlli per assicurarsi che stia funzionando secondo attese. Questo non vuol dire che i controlli non siano possibili, ma richiama al senso di responsabilità degli utilizzatori.
    Come giustamente sottolineato dall’articolo solo quindi garantendo un uso consapevole e correttamente controllato delle macchine possiamo utilizzarle in modi efficacie utili nei processi, altrimenti rischiamo come minimo che i risultati attesi si presentino in modi casuali o impredicibili, rischiamo di non saper valutare la performance delle macchine o non capire se dietro la correttezza e imparzialità teorica che potrebbe garantire la meccanicità di una macchina (invece dei numerosi casi di derive e disturbi psicologici o altro che potrebbero interessare un agente umano) in realtà vi è un algoritmo, dei dati, delle scelte, delle sabotazioni, .. che perturbano, magari anche per solo particolari casi d’uso, in modi voluti o meno, i responsi della macchina.
    Possiamo non conosce come funziona esattamente lo sciacquone , ma in genere ci fidiamo ad utilizzarlo perché riteniamo di prevedere i casi in cui esso funziona correttamente da quelli in cui non funziona e anche nei casi di non funzionamento ci aspettiamo di poter riconoscere la situazione e aver modo di controllarla, prevedendo i possibili scenari negativi così come possibilmente i casi in cui decidere di chiamare un tecnico. Se tirando lo sciacquone potessero avvenire eventi imprevisti, come introdurre sostanze nocive impreviste nell’ambiente o far scoppiare una bomba allora presumibilmente avremmo diffidenza nell’usare lo sciacquone.
    Anche solo quindi un senso di responsabilità e necessità di controllo ci richiama a usare in modo consapevole gli strumenti, gli oggetti , le macchine ed avere almeno determinati limiti di garanzia delle loro prestazioni, delle contromisure presenti per evitare comportamenti dannosi o assicurazioni e protezioni contro guasti o eventi simili.
    Ma anche una macchina che è progettata con criteri di sicurezza e sia anche ben progettata può essere impiegata in modi inopportuni, per scopi buoni o malvagi, con alterazioni o danni intesi o meno. La macchina, come gli altri oggetti, può essere utilizzata per il bene o per il male; avendo non solo una fase di utilizzo, ma anche una fase di programmazione (e magari addestramento) vi sono più modi e opportunità di poterne modificare il comportamento e l’uso.
    Una macchina in teoria in caso di corretto funzionamento dovrebbe avere un comportamento almeno certo limiti controllato e prevedibile. La macchina può non avere una coscienza, ma chi la programma, chi la controlla, chi la usa, chi vi interagisce, chi la mantiene o sabota possano tutte essere persone umane con una coscienza. L’adeguatezza della macchina rispetto agli scopi per cui costruita, la correttezza di esecuzione , la correttezza di utilizzo sono tutti aspetti che possono trovare riscontro e controllo nelle attività umane di chi progetta, usa, interagisce, .. con la macchina. Anche se la macchina non ha una coscienza altri dovrebbero averla e garantire misure di controllo. Ben opportune quindi le indicazioni dell’articolo.
    Per poter determinare però cos’ è bene e cos’ è male, quali casi di utilizzo della macchina sono corretti e quali sono invece errori, aspetti potenzialmente errati, discriminatori, fuorvianti, … serve un opportuno sistema di valori per distinguere il bene dal male. E questi sono aspetti di coscienza di valori umani, non di solo conti puramente meccanici di macchine.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *