Vai al contenuto

Le sfere metalliche lucide si sono materializzate in varie città del mondo!
No, non si tratta di alieni venuti da altri mondi, e neppure delle palle sempre più gonfie delle persone per la commedia che che ci stanno facendo vedere. Sono dei dispositivi rivoluzionari che "inaugurano una nuova era di umanità globale e stabilità finanziaria". Così dicono gli ideatori.
Per i detrattori, invece, come lo scrivente, sono strumenti distopici agghiaccianti.

Worldcoin è la Rete globale per le Identità Digitali planetarie, nata dalla fusione tra Intelligenza Artificiale, controllo sociale e criptomonete. L’ideatore è Sam Altman, l’ashkenazita fondatore di OpenAI (ChatGPT). Guarda caso, sempre lui...

Sam Altman

Le sfere servono a scansionare gli occhi delle persone in cambio di un ID digitale e di una criptovaluta. Una valanga di decerebrati (parlano di 2 milioni) sono stati in colonna per ore pur di farsi scansionare l’iride e ricevere una manciatina di criptomonete. Infatti per l’occasione Worldcoin ha creato il proprio token crittografico, chiamato WLD, offrendo 25 unità (circa 60 dollari) a chiunque si faccia scansionare gli occhi da una sfera.

Colonna di persone in Kenya per farsi dare i soldini...

Ma vi rendete conto del livello? Vendere l'anima per 60 dollari!
D'altronde siamo abituati: vi ricordate un paio di anni fa? Qualcuno ha venduto il proprio corpo ai diserbanti genici per una birra o un gelato.

Scansionamento dell'iride

Ma qual è l'obiettivo di Worldcoin? Secondo Altman sarebbe la soluzione finale per distinguere definitivamente gli umani dalla IA.
Ma per dimostrare di essere umani veri, Worldcoin necessita delle vostre iridi che sono uniche, per poi rilasciare la famosa Identità Digitale Mondiale chiamata World ID. Con questo ID le persone potranno usarlo per il riconoscimento e accedere ai vari siti e/o app con sicurezza assoluta. Bellissimo, vero? Straordinario direi, peccato che gli scopi occulti sono a dir poco aberranti. Stanno spingendo la digitalizzazione di tutti gli aspetti della Vita, perché così avranno il controllo assoluto dell’uomo. E l'ID è parte cruciale.

Con l'ID avranno il controllo assoluto della Vita

Immaginate una qualsiasi situazione che necessiti del riconoscimento: dai pagamenti, alle visite, alle vaccinazioni, ecc. Ecco, in tutti questi casi l'Identità Digitale sarà fondamentale. L'ID associata alla transizione della moneta fiat (contanti) verso quella digitale, sarà la tomba delle libertà.
Se non ci svegliamo dal coma e quanto prima, conosceremo di persona la dittatura più spietata e distopica che sia mai stata pensata!

Marcello Pamio - 22 dicembre 2022
Il grande maestro Hayao Miyazaki, autore di vere opere d'arte animate disseminate nell'ultimo mezzo secolo, nonostante i suoi 81 anni suonati non si smentisce mai. E' ancora attentissimo e coerente!
Nel video che troverete nell'articolo, il presidente della società giapponese Dwango, Nobuo Kawakami mostra gongolante e con fierezza a Miyazaki le prodezze artistiche dell’intelligenza artificiale. Povero, lui non poteva immaginare la reazione del mostro sacro, il quale impassibile come sempre, la prima cosa che fa è rassicurare tutti i presenti che lui non userà MAI una simile aberrazione per i suoi film! Già, ma Miyazaki spiega il motivo del suo rifiuto: «Non posso che provare disgusto davanti a tutto questo […] Ritengo questa roba un vero e proprio insulto alla vita»! Come non dargli ragione?
L'assoluto lo si tocca guardando la faccia di Kawakami dopo la lapidaria affermazione di Miyazaki: «Sento che ci stiamo avvicinando alla fine dei tempi». Se gli avessero messo in morsa i testicoli sarebbe stato meno doloroso per lui…


https://www.rivistastudio.com/hayao-miyazaki-intelligenza-artificiale/?fbclid=IwAR0dLA0epzGw6tYsKLwSHteTh9RC-f_-V_k6eJaaCt_406PXXBGDI5ayBh4

Marcello Pamio

Cosa servirebbe per far sì che un governo totalitario globale salisse al potere indefinitamente? Esiste o no il pericolo che una tecnologia schiavizzi il mondo?
Questo scenario da incubo è così vicino che la BBC se ne è occupata con un reportage il 16 ottobre 2020.

Come sarebbero stati i governi totalitari del passato se non fossero mai stati sconfitti? Per esempio, per fermare i nazisti che operavano con la tecnologia del XX secolo è servita una guerra mondiale. Oggi quanto sarebbero stati potenti i gerarchi se avessero sconfitto gli Stati Uniti con la bomba atomica? Il controllo della tecnologia più avanzata dell’epoca avrebbe permesso al potere nazista di cambiare il corso della storia.
Quando pensiamo ai rischi esistenziali vengono in mente eventi come la guerra nucleare o l’impatto di un asteroide. Eppure c’è una minaccia futura che è molto meno nota e, sebbene non implichi una vera e propria estinzione, potrebbe essere anche più grave.

Questo scenario è chiamato “Mondo in catene”: un futuro governato da uno Stato totalitario globale che utilizza una nuova tecnologia per schiavizzare la maggioranza del mondo tenendola in una sofferenza perpetua.
Ricercatori e filosofi stanno riflettendo su come ciò potrebbe accadere e, cosa più importante, cosa possiamo fare per evitarlo.
Toby Ord
, ricercatore senior presso il Future of Humanity Institute (FHI) dell’Università di Oxford ritiene che le probabilità che accada una catastrofe naturale sono inferiori a 1 su 2.000, perché gli esseri umani sono sopravvissuti per 2.000 secoli senza vederne una. Ma la probabilità di un disastro causato dall’uomo è di 1 su 6! Non a caso il dottor Ord si riferisce a questo secolo come “al precipizio” poiché il rischio di perdere il nostro futuro non è mai stato così alto.

I ricercatori del Center on Long-Term Risk, un istituto di ricerca senza scopo di lucro a Londra, hanno ampliato i cosiddetti “rischi X”: pericoli oggettivi per il pianeta.
Questi “rischi” sono definiti come “sofferenza su scala astronomica che supera di gran lunga tutte le sofferenze che sono esistite finora sulla Terra”.
In questi scenari la vita continua per miliardi di persone, ma la qualità è così bassa e le prospettive così cupe che sarebbe preferibile morire. Quindi stanno ipotizzando un futuro così negativo da preferire l’estinzione, ed è proprio qui che entra in gioco lo scenario del “mondo in catene”.

Cosa succederebbe se un gruppo o un governo acquisisse improvvisamente il potere di dominare il mondo attraverso la tecnologia? Potrebbe portare a un lungo periodo di sofferenza e sottomissione.
Un rapporto del 2017 sui rischi esistenziali del Global Priorities Project, in collaborazione con FHI e il Ministero degli Affari Esteri della Finlandia, ha avvertito che “un lungo futuro sotto uno stato totalitario globale particolarmente brutale potrebbe essere probabilmente peggiore della completa estinzione”.

Ipotesi Singleton
I ricercatori nel campo dei rischi esistenziali stanno rivolgendo la loro attenzione alla sua causa più probabile: l’intelligenza artificiale (AI).
Nella sua “Ipotesi Singleton”, Nick Bostrom, direttore dell’FHI di Oxford, ha spiegato come potrebbe formarsi un governo globale con l’intelligenza artificiale o altre potenti tecnologie e perché potrebbe essere impossibile rovesciarlo.
Un mondo con “una singola agenzia decisionale al più alto livello” potrebbe verificarsi se quell’agenzia “ottenesse un vantaggio decisivo attraverso una svolta tecnologica nell’intelligenza artificiale o nella nanotecnologia molecolare”. Una volta in carica controllerebbe i progressi della tecnologia come la sorveglianza e le armi, e grazie a questo monopolio rimarrebbe perennemente al potere.

Anche nei paesi con i regimi totalitari più rigidi le notizie trapelano e le persone possono anche fuggire, ma un governo totalitario globale eliminerebbe queste speranze.
Per essere peggio dell’estinzione significa “che non sentiamo assolutamente nessuna libertà, nessuna privacy, nessuna speranza di fuggire, nessuna agenzia per controllare le nostre vite”, dice Tucker Davey, uno scrittore del Future of Life Institute in Massachusetts.
Potremmo non avere ancora le tecnologie per farlo”, ha detto Ord, “ma sembra che i tipi di tecnologie che stiamo sviluppando lo rendano molto più facile”...

IA e autoritarismo
L’intelligenza artificiale sta già consentendo l’autoritarismo in alcuni paesi e rafforzando le infrastrutture che potrebbero essere usate da un despota opportunista.

Abbiamo assistito a una sorta di resa dei conti con il passaggio da visioni molto utopiche di ciò che la tecnologia potrebbe portare a realtà molto più che fanno riflettere e che sono, per alcuni aspetti, già abbastanza distopiche”, afferma Elsa Kania, senior fellow del Center for New American Security, una no-profit bipartisan che sviluppa politiche di sicurezza e difesa nazionale.
In passato, la sorveglianza richiedeva centinaia di migliaia di persone - un cittadino su 100 nella Germania orientale era un informatore - ma ora può essere attuata tramite la tecnologia. Negli Stati Uniti, la National Security Agency (NSA) ha raccolto centinaia di milioni di registrazioni di chiamate e messaggi di americani prima che interrompessero la sorveglianza domestica nel 2019 e si stima che nel Regno Unito ci siano dai quattro ai sei milioni di telecamere a circuito chiuso.

Diciotto delle 20 città più sorvegliate al mondo si trovano in Cina, ma Londra è la terza.
L’infrastruttura è già pronta per applicarla e l’IA, che l’NSA ha già iniziato a sperimentare, consentirebbe alle agenzie di cercare tra i nostri dati con una velocità mai vista prima.
Oltre a migliorare la sorveglianza, l’IA sostiene anche la crescita della disinformazione online, che è un altro strumento dell’autoritario. I deep fake basati sull’intelligenza artificiale possono diffondere messaggi politici fabbricati ad arte, e il micro-targeting algoritmico sui social sta rendendo la propaganda più persuasiva. Questo mina la nostra capacità di distinguere ciò che è vero da ciò che è falso.

Il rapporto sull’uso dannoso dell’intelligenza artificiale scritto da Belfield e da 25 autori di 14 istituzioni, prevede che tendenze come queste amplieranno le minacce esistenti alla nostra sicurezza politica e ne introdurranno di nuove nei prossimi anni.
Cosa vogliamo fare?

Conclusione
Molto interessante questo approfondimento della BBC. Forse qualcuno ci vuole avvertire sui rischi che stiamo correndo, o ci stanno facendo vedere quello che sarà il nostro inesorabile e distopico futuro?
Comunque sia, è ora il momento per decidere attentamente quali sono gli usi accettabili e inaccettabili della tecnologia in generale, soprattutto dell’IA, perché se permettiamo di controllare tutta la nostra esistenza, domani sarà troppo tardi per tornare indietro. A tal proposito ricordo che il 5G e il 6G risultano fondamentali in questa visione...
Stiamo armando le forze di polizia con il riconoscimento facciale e i vari governi stanno raccogliendo tutti i nostri dati (anche grazie a quello che noi gratuitamente e inconsapevolmente lasciamo nei social), e questo è molto ma molto pericoloso!

https://www.bbc.com/future/article/20201014-totalitarian-world-in-chains-artificial-intelligence

Marcello Pamio

La follia è un virus che continua ad infettare sempre più menti in giro per il mondo. Qualche esempio?
In Francia applicano l'IA per sorvegliare i sudditi.
L'Intelligenza Artificiale integrata con le videocamere di sicurezza della metropolitana sarà in grado di controllare se i passeggeri hanno la museruola in faccia oppure no! Ogni persona che andrà a prendere la metro sarà tenuta sotto controllo e monitorata da un computer intelligente, perché in Francia la mascherina è obbligatoria nella metropolitana.
Bloomberg ha spennellato un po' di vaselina sulla supposta scrivendo che tali ricognizioni non hanno effetti punitivi ma servono solo a generare statistiche anonime.
Certo sono solo sterili statistiche, era ovvio.
Il test della durata di ben tre mesi inizierà a Chatelet-Les-Halles, una piccolissima stazione ferroviaria di periferia che vede solo 33 milioni di passeggeri all'anno!
Molte sono state le polemiche per la chiarissima violazione della privacy, ma il bene comune viene prima di tutto e tutti: oggi infatti con l'emergenza sanitaria fanno passare qualunque cosa.

Mentre da noi in Italia è nato non in una ferrovia ma all'aeroporto di Genova il "Social distancing" un progetto con l'Istituto Italiano di Tecnologia (IIT) che sviluppa un software capace di monitorare automaticamente il rispetto del distanziamento sociale. Qui non controllano la presenza della mascherina ma se le persone si avvicinano troppo.
Usano le telecamere di sorveglianza e sono in grado di generare una mappa ambientale sfruttando anche in questo caso l'intelligenza artificiale.

Il software circoscrive un raggio attorno alle persone presenti segnalando al computer quando sono troppo vicine, e in caso di rischio assembramento genera avvisi per il rispetto del distanziamento.
La sperimentazione si è servita dell'impianto di videosorveglianza standard dell'aeroporto.
Forse ora è più chiaro il ruolo centrale del 5G in tutto questo enorme progetto di controllo globale, o no? Avete capito perché non possono non adottarlo? Lo standard di quinta generazione permetterà infatti di accelerare l'instaurazione della tecnodittatura.
Nel nome della sicurezza stanno infatti violentando ogni giorno la Costituzione, la privacy, le libertà e i diritti umani.


Marcello Pamio

Oggi vero e falso sono la stessa cosa,
talmente identici da non essere più distinguibili,
e anzi hanno finito per farsi intercambiabili.

Il tormentone estivo quest'anno non è una canzone di Mahamood, ma un’applicazione per il cellulare.
L’app che sta facendo letteralmente impazzire il cyberspazio, vip compresi, si chiama «FaceApp».
Una applicazione prodotta nel 2017 dalla società «Wireless Lab OOO» con sede a San Pietroburgo, fondata da un certo Yaroslav Goncharov.
Nel mondo sempre più persone la stanno usando e i numeri parlano da soli: «oltre 80 milioni di utenti attivi». Così almeno è quanto scritto nel sito ufficiale.

Cos'ha di così attraente FaceApp?
Innanzitutto l’utilizzo è facilissimo e immediato: una volta scaricata gratuitamente da PlayStore o AppleStore, basta farsi una fotografia in primo piano (selfie) con il cellulare e poi ci penserà l’applicazione a trasformarla con dei filtri appositi.
Fin qui nulla di strano: esistono centinaia di programmi di grafica che modificano e alterano le foto, per cui cosa c’è di speciale in questa?
Per capirlo è necessario conoscere il cuore e il cervello di «FaceApp»: potenti algoritmi di Intelligenza Artificiale! Avete letto bene, questa non è una normale applicazione, perché qui viaggiamo nel mondo dell’AI.
Lo spiega lo stesso fondatore Goncharov: «abbiamo sviluppato una nuova tecnologia che sfrutta le reti neurali per modificare in maniera realistica il volto nelle foto».

Quello che differenzia la sua applicazione da tutte le altre è il fotorealismo!
In pochissimi secondi, con un clic è possibile modificare il volto: dall’acconciatura, al sesso, fino all’età, dove per quest’ultima (il filtro che ha spopolato sul web) è presente sia la funzione che invecchia che quella che ringiovanisce! Esistono ben 21 filtri diversi in grado di modificare le immagini, di cui alcuni solo nella versione a pagamento (3,99 euro per l’abbonamento mensile; 19,99 euro per quello annuale, 43,99 euro per sempre).
I risultati come detto sono sconvolgenti sia per realismo che per qualità, e questo è il motivo per cui i social (Facebook, Instagram, ecc.), di punto in bianco sono diventati ospizi pieni di vecchietti.


Qui sopra un Fedez e una Ferragni attempati

Luigi Di Maio e Matteo Salvini in pensione (forse)

Quali sono i pericoli?
Fino a qui nulla da eccepire, soprattutto per i risultati grafici: ma è tutto oro quello che luccica?
Vediamo quindi il rovescio della medaglia e cioè quali potrebbero essere i rischi di un utilizzo non corretto.
Innanzitutto, mentre i sudditi dell’Impero si divertono a vedersi come saranno tra 30 o 50 anni, le loro foto transitano su vari server esteri (dove saranno archiviate e lavorate) sia negli Stati Uniti (dove FaceApp dichiara di avere sede) che in qualunque altro paese dove FaceApp ha affiliati e/o fornitori del servizio (Russia, ecc.).

Quindi queste foto che fine faranno? E per quanto tempo possono tenersele?
La società di Goncharov ovviamente non lo specifica nel sito, non sappiamo per quanto tempo verranno conservate le immagini nei loro hard disk, né dove siano localizzati fisicamente i server.
In ogni caso viene totalmente ignorata la nuova normativa sulla protezione dei dati personali, la tristemente nota Gdpr.

Un dato però è certo: le immagini saranno utilizzate dalle reti neurali come addestramento dell’intelligenza artificiale al riconoscimento facciale, a fini commerciali o anche per altri scopi molto meno positivi. Vediamo quali…
Il sistema che sfrutta la tecnologia alla base delle reti neurali, migliora man mano che analizza volti, sicché più ne finiscono nel loro database e più il sistema diventerà bravo e perfetto nel creare volti «sintetici», volti finti che non esistono, ma così reali da non saperli distinguere.
Il riferimento va alle cosiddette «identità fasulle» che poi possono essere associate a profili social veri e propri!
Oggi è possibile creare un numero impensabile di utenti (Facebook, Instagram, Twitter, ecc.), inventati ma assolutamente credibili e realistici, che possono poi influenzare l’opinione pubblica e pesare anche sulla politica...

Qui non si parla del classico troll con il profilo finto, che scandaglia la Rete per creare zizzania, perché pagato per farlo: il discorso è molto più complesso.
Si chiama DeepFake e tecnicamente è possibile creare un esercito di profili fasulli, arricchiti da foto e video fasulli, ma che sembrano veri.
Un’altra cosetta importante è che stiamo letteralmente regalando i nostri «dati biometrici» a società e aziende di cui non conosciamo nulla. E’ pur vero che lo facciamo già grazie ai social, quando pubblichiamo delle foto che ci ritraggono, ma ora la tecnologia permette di creare i famigerati «DeepFake», ovvero immagini e video falsati impossibili da riconoscere come tali

Il lato oscuro di DeepFake
Questa tecnologia sta facendo molto parlare di sé da qualche anno, anche se non tutti hanno compreso il gravissimo rischio di un suo utilizzo sbagliato.
Il termine deriva da «Deep Learning», che significa «apprendimento profondo» e «Fake» che vuol dire «falso».
Una tecnologia - all’interno del mondo AI - basata sulla sintesi di immagini umane, combinate e sovrapposte dal computer, che usa degli algoritmi di apprendimento non supervisionati (auto-intelligenza) che vanno sotto il nome di GAN: «Generative adversarial network» (Rete generativa avversaria, a base di reti neurali).
Tutti questi paroloni per dire che si possono creare video falsi, ma così realistici che non si può stabilirne a priori la manipolazione.

Quello che è possibile fare con un programma di fotoritocco su una foto, oggi lo si può fare all’interno di un video, riuscendo a far fare e/o far dire al soggetto tutto quello che si vuole!
E’ la stessa tecnologia usata da Hollywood nei film, ma oggi è alla portata di tutti e questo apre scenari impensabili e a dir poco inquietanti.

Nel film Rogue One della saga Star Wars (immagine qui sopra), per la principessa Leia hanno utilizzato FakeApp inserendo la faccia di Carrie Fisher (a destra) presa dalla trilogia originale, sopra quella dell'attrice svedese Ingvild Deila (a sinistra) che ha girato le scene.
Nella stessa cinematografia per esempio gli sbocchi di tale applicazione sono tantissimi: ringiovanimento degli attori; creazione di «attori sintetici» mai esistiti prima; possibilità di farli resuscitare nel caso che un attore vero muoia, ecc.

Tanto per capire, ecco cos'è successo poco tempo fa, quando un utente anonimo su Reddit (sito internet di social news e intrattenimento) con il nickname (guarda caso) «Deepfake», ha iniziato a postare una serie di video per adulti, le cui attrici protagoniste erano le bellissime Daisy Ridley e Gal Gadot.
Ma le due star non hanno mai girato nessun film piccante.

 
Deepfake con Daisy Ridley. Notare la qualità incredibile

Una cosa del genere è stata resa possibile proprio da Deepfake: in pratica i volti delle due porno-attrici che hanno girato il film sono stati sostituiti da quelli della Ridley e della Gadot.
Il risultato è un video verissimo!


La porno attrice ha il volto di Gal Gadot

Esistono siti porno dedicati a questo sistema, come per esempio MrDeepfakes, che pubblica film hard con le star più famose del firmamento…


Sito porno dove puoi scegliere l'attrice

Oltre al porno però si spalancano portoni molto oscuri.
E’ possibile per esempio prendere un video dalla rete, sostituire il volto con quello della persona che più odiamo (la donna che ci ha lasciato, il titolare del lavoro, ecc.), per farle dire e/o fare quello che vogliamo, per poi rimetterlo in circolazione nel web.
Le ripercussioni sono incalcolabili perché non si riconosce che è falso!
Se a questo aggiungiamo che un’azienda israeliana ha recentemente sviluppato un software che permette di modificare il movimento della bocca di una persona ripresa in un video, il gioco diventa una passeggiata.

I dirigenti di Facebook sono molto preoccupati per la crescita di questo fenomeno (ne sa qualcosa Marck Zuckerberg stesso, come vedremo) e hanno dichiarato che stanno prendendo provvedimenti per limitare al massimo l’uso sbagliato della tecnologia.
E se per caso alla fine le vittime del DeepFake fossimo proprio noi?
Immaginate un futuro in cui con qualche click, alcune foto o video sia possibile creare un DeepFake totalmente convincente per far dire o fare alla nostra vittima quello che vogliamo...

Il paradosso è che, se tutto ciò non verrà fermato, arriveremo al punto che neppure i video catturati dalle telecamere di videosorveglianza costituiranno una prova schiacciante per incastrare un criminale: chi ci assicura infatti che non siano stati manipolati con Deepfake?

Ecco cos'è accaduto al patron di FB...
A metà giugno 2019 Mark Zuckerberg è apparso in un breve video nel quale ha dichiarato: «Immaginatevi per un istante un uomo, con il controllo totale sui dati rubati a milioni di persone. Su tutti i loro segreti, le loro vite e il loro futuro.
Si deve tutto a Spectre.
Spectre mi ha fatto capire che, chi controlla i dati controlla il futuro».

Per il video cliccare sull'immagine, oppure seguire la url : https://www.instagram.com/p/ByaVigGFP2U/?utm_source=ig_embed

Parole simili, messe in bocca a chi detiene realmente i dati di miliardi di persone, sono agghiaccianti!
La smentita ufficiale è uscita subito dopo, perché Zuckerberg non ha mai pronunciato quel discorso: era un Deepfake ben fatto e indistinguibile.
Questo semplice esempio dovrebbe farci riflettere e pensare molto seriamente, perché Deepfake potrebbe diventare una minaccia globale per tutti quanti!