Per appuntamento
La seduta può essere svolta presso il mio studio oppure online tramite videochiamata.
La seduta può essere svolta presso il mio studio oppure online tramite videochiamata.
AI e ChatGPT. Anni magici, dallo stupore alla sorpresa, dall’interesse all’utilizzo sempre più ampio, fino a qualche scettica domanda, a qualche “pre-occupazione”, a qualche passo indietro e richiesta di certezze, rassicurazioni, conferme…
Allo stesso tempo nulla sembra muoversi con chiarezza sulle regolamentazioni, e i CYBER ATTACKS proseguono nel solito gioco delle guardie e ladri. Scoperto un “nuovo mondo”, un mondo ricco e potenzialmente donatore di maggiore informazione e libertà per tutti, ecco emergere i “cattivi”, la delinquenza online, la CRIMINALITÀ DEL DARK WEB o, più semplicemente, gli HATERS – che, comunque, non sono cosa da poco.
Leggo sui quotidiani che solo nei primi sei mesi del 2024 gli attacchi hackers sono aumentati notevolmente e molti hanno colpito, in Italia, siti istituzionali o centri nevralgici come quelli sanitari (vedi i report della MUNICH SECURITY CONFERENCE).
I pirati informatici che chiedono riscatti a singoli utenti fanno affari.
È dunque necessario, nel piccolo del mondo virtuale, che le persone sviluppino dei “SISTEMI DI ALLARME” – in pratica (tra molte altre cose) che non aprano e-mail sospette!
Sembra semplice, ma evidentemente ancora molti cadono nel rispondere a e-mail del tipo “Un tuo lontano parente è deceduto e ti ha lasciato… clicca qui”.
Per non dire delle telefonate con voci contraffatte, sempre con l’utilizzo della AI.
Privacy personale, sicurezza dei dati e livello di sicurezza globale dei sistemi tendono ad andare insieme, almeno fino a un certo punto.
Il governo, partendo dalle scuole, ma non solo, avrebbe il compito di rinforzare LA CAPACITÀ DI STARE ALL’ERTA DEI CITTADINI – oltre, naturalmente, quello di investire in modo serio e significativo sull’implementazione delle reti di sicurezza per le istituzioni, dato che persino i siti istituzionali sono stati perforati… siti che alcune voci autorevoli hanno definito dei “colabrodo”!
Informazione. Consapevolezza, educazione, maggiori competenze di base su come navigare nel web e cosa fare con le tante modalità di messaggistica, come comportarsi nel rispondere a input esterni.
Modificare codici di accesso, trovarne di solidi, fare ripetute autenticazioni, usare con cervello il proprio pc o il proprio smartphone… TUTTE QUESTE COSE VANNO (ANCHE) INSEGNATE!
La CYBERSICUREZZA richiede investimenti, sia di genere specialistico per gli addetti ai lavori, sia per le persone comuni, per non essere truffate. E la Polizia Postale, ACN, e i gruppi appositamente costituiti in ambito FF.AA. non possono fare tutto, non possono stare dietro a tutto.
La rete è una magnifica invenzione ma, come tale, può e viene usata per mille scopi diversi.
Uno di questi è truffare e “rubare”, rubare di tutto. E, naturalmente, anche “vendere” di tutto!
Ne consegue che ogni dispositivo aperto e collegato al mondo virtuale è automaticamente una “porta” dalla quale un criminale informatico può penetrare: cellulari, servizi cloud, personal computer, piattaforme, provider, l’intera AI, tutto può ricadere nell’ambito degli attacchi cibernetici, ed è da considerare – come è stato notato – che è più semplice portare un attacco al sistema che difendere il sistema.
Una legge contraria a ciò che accade, generalmente, nella guerra tradizionale di fanteria!
Non è cosa da poco.
Così come si potenzia la sicurezza sulla strada, allo stesso modo si dovrebbe potenziare LA SICUREZZA NEL MONDO DEL WEB.
Del resto, più è spinta la digitalizzazione, più saranno frequenti e potenti gli attacchi cyber.
Ad esempio, le banche online sono una grande cosa, ma sono anche sistemi aperti a possibili attacchi – e, infatti, sono regolarmente attaccate.
Se un normale cliente di una banca online sapesse quanti sono gli attacchi portati regolarmente ai sistemi, ai conti, ai codici, (e quindi quanti rischi corre) forse filerebbe a riportare i denari nel classico sportello vicino casa! Ma sia questo, sia il rischio phishing o il deep fake, non sarebbero un valido motivo per cambiare banca, in realtà; per il semplice fatto che in molte aree della vita accadono cose simili: se un paziente sapesse realmente quanti e quali rischi può potenzialmente correre nel corso di un intervento chirurgico… nessuno si farebbe più operare, se non si trovasse proprio al limite!
Dunque, non solo i SW e le piattaforme dovrebbero sempre meglio APPRENDERE DALLE ESPERIENZE, ma anche i singoli cittadini dovrebbero potersi giovare delle esperienze già accumulate (e non sono poche) per poter reagire in modo opportuno a eventuali intrusioni o rischi di intrusione.
Dunque, dalla preoccupazione circa il WEB, l’AI e il mondo digitale in tutte le sue forme, si potrebbe passare, tutti, alla fase di CONOSCENZA, CONSAPEVOLEZZA, GESTIONE E CONTROLLO.
Anche perché persino gli ambiti domestici sono spesso arricchiti dai nuovi sistemi di comunicazione e controllo digitali (domotica).
L’AI tradizionale, l’AI di nuova generazione, ANI, AGI e ASI, che si basano sul famoso “triangolo delle bermude” – blocchi di dati, algoritmi sofisticati e grande potenza di calcolo – devono poter essere gestite da CERVELLI PENSANTI, quelli che le aziende chiamano “talenti” e che cercano di rubarsi a vicenda.
Lavorare con il LLM, il Large Language Model non è cosa per chiunque – così come è assai complesso saper costruire degli ambienti di simulazione e digital twins efficaci e utili.
Quando si opera con infrastrutture che hanno grandi capacità computazionali diventa necessario elevare gli standard di competenze e di sicurezza, sia tra gli umani, sia nei sistemi. Il rischio è avere SISTEMI INTELLIGENTI GESTITI DA OPERATORI INADEGUATI, ad esempio non orientati alla previsione, non reattivi tempestivamente di fronte agli alert, non capaci di giudicare l’evento in corso evitando almeno i maggiori bias cognitivi.
Non si scappa. Al fondo di questi ragionamenti sta e rimane l’essere umano.
ESSERE UMANO che non può delegare ogni cosa ai sistemi intelligenti, alle applicazioni, all’AI in ogni sua forma. Se lo facesse, rischierebbe una progressiva riduzione di capacità soggettive (soft skill) e di competenze professionali: sarebbe un disastro, come è già avvenuto in alcuni comparti e in talune aree applicative. Ad esempio, nel mondo del volo, del pilotaggio, che conosco abbastanza bene, si è visto decenni fa che l’affidarsi eccessivamente all’automazione del cockpit rendeva il pilota incapace di gestire le emergenze, di riprendere i comandi manuali!
In ogni realtà, una eccessiva automatizzazione delle risposte a input esterni rende vulnerabile il sistema e lo espone a rischi di errore.
Come capita in molte aree della vita, anche per ciò che riguarda l’AI si è di fronte a una debolezza e una forza insieme: da un lato l’utilizzo dell’AI facilita numerose forme di attacco – ad esempio, centrando al meglio l’obiettivo, o convincendo la vittima a ignorare i segnali di pericolo – dall’altro con l’AI si possono innalzare difese possenti, rendendo i sistemi più solidi, validi nel funzionamento, attendibili nelle risposte, capaci di apprendere dalle esperienze e di apprendere dalle modalità di attacco che sono state messe in atto.
In sostanza (ancora una triade): PREVISIONE, GESTIONE E RISPOSTA. Tutte orientate al futuro per sviluppare maggiore efficienza ed efficacia. Ma è necessario mantenere al centro l’essere umano in termini psicologici e in termini di competenze tecnico-professionali. Mi sembra che troppo spesso si salti proprio la persona, ondeggiando tra due estremi: la tecnologia, l’automazione, l’informatica da un lato, e la filosofia, l’etica dall’altro. Forse, meno filosofia e più psicologia sarebbe utile, mantenendo il discorso etico vivo e ben dimensionato.
Andrea Castiello d’Antonio