Gaza dopo i bombardamenti intelligenti (AI): una bambina è estratta viva da sotto le macerie dopo un bombardamento del governo di Netanyahu sulla popolazione innocente.
link diretto del video su rumble:
https://rumble.com/v40mtqd-bambina-estratta-viva-dalla-macerie-a-gaza-10-dic-2023.html
Anteprima del video:
Premessa:
‘The Gospel’: how Israel uses AI to select bombing targets in Gaza
è traducibile come:
‘Il Vangelo’: come Israele usa l’intelligenza artificiale per selezionare gli obiettivi dei bombardamenti a Gaza.
Ma la parola Gospel anche usata in canti Gospel è una evoluzione di God spel, cioé che tratta di Dio, oppure go spelling, vai spiega sillabando. Che Dio è detto la PAROLA.
In italiano Vangelo etimologicamente viene descritto come
https://www.treccani.it/vocabolario/ricerca/vangelo/
“buona novella”.. andate e portate la buona novella (notizia) diceva Cristo agli apostoli.
Ma un ricerca più approfondita porta alla parola angelo, come annunciatore, della PAROLA di DIO.
https://www.etimo.it/?term=angelo
E dunque evangelion
https://en.wikipedia.org/wiki/Evangelion
Evangelion refers to the gospel in Christianity, translated from the Greek word εὐαγγέλιον (euangélion, Latin: evangelium) meaning “Good News”.
quindi angelo è annunciatore, di eu, buona notizia.
Questa breve premessa, per dire quanto sia importante nelle religioni il tentativo di ascoltare “Dio che parla”.
Poi, naturalmente, Dio non parlò alle masse in modo chiaro, ma sempre mediato da qualcuno che diceva (profeta) che Dio gli aveva detto qualcosa. Dunque per il genere umano la “PAROLA di Dio” è sempre un ricerca di capire la VERITA’, ma con il concetto di prendersi la RESPONSABILITA’ di ciò che singolarmente avevamo capito.
—
Dunque vedere che si è abdicato alla responsabilità PERSONALE, in favore di un software di un computer, a delegare ad una macchina (AI=Artificiale Intelligenza) la responsabilità di dove bombardare i “terroristi” con i danni collaterali di potere uccidere donne, bambini, medici, malati, invalidi, anche gli israeliani rapiti .. è organizzare la GUERRA come una macchina per la estinzione del nemico, con la logica che l’unico PALESTINESE valido è un palestinese morto.
—
Ora metterò il resoconto del giornale theguardian al link seguente tradotto in italiano:
https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
a seguire l’articolo di commento di Blondet sul testo di theguardian lo troverete al link:
https://www.maurizioblondet.it/cosa-israele-ha-chiamato-rivelazione-di-cristo/
Buona lettura:
++
cit on
++
Il “Vangelo”: come Israele usa l’intelligenza artificiale per selezionare gli obiettivi dei bombardamenti a Gaza
Preoccupazione per la “fabbrica” di dati che aumenta in modo significativo il numero di obiettivi per gli attacchi nel territorio palestinese
L’esercito israeliano non ha fatto mistero dell’intensità dei suoi bombardamenti sulla Striscia di Gaza. Nei primi giorni dell’offensiva, il capo delle forze aeree ha parlato di attacchi aerei incessanti, “24 ore su 24”. Le sue forze, ha detto, stavano colpendo solo obiettivi militari, ma ha aggiunto: “Non siamo chirurgici”.
Tuttavia, è stata prestata relativamente poca attenzione ai metodi utilizzati dalle Forze di Difesa Israeliane (IDF) per selezionare gli obiettivi a Gaza e al ruolo che l’intelligenza artificiale ha svolto nella loro campagna di bombardamenti.
Mentre Israele riprende la sua offensiva dopo un cessate il fuoco di sette giorni, aumentano le preoccupazioni per l’approccio dell’IDF alla selezione degli obiettivi in una guerra contro Hamas che, secondo il ministero della Sanità di Gaza, gestito da Hamas, ha finora ucciso più di 15.000 persone nel territorio.
L’IDF si è a lungo guadagnato la reputazione di essere un esperto tecnico e in passato ha fatto affermazioni audaci ma non verificabili sullo sfruttamento delle nuove tecnologie. Dopo la guerra di 11 giorni a Gaza nel maggio 2021, gli ufficiali hanno dichiarato che Israele ha combattuto la sua “prima guerra di intelligenza artificiale” utilizzando l’apprendimento automatico e l’informatica avanzata.
L’ultima guerra tra Israele e Hamas ha fornito un’opportunità senza precedenti per l’IDF di utilizzare tali strumenti in un teatro operativo molto più ampio e, in particolare, di impiegare una piattaforma di creazione di bersagli AI chiamata “il Vangelo”, che ha accelerato in modo significativo una linea di produzione letale di bersagli che i funzionari hanno paragonato a una “fabbrica”.
Il Guardian è in grado di rivelare nuovi dettagli sul Vangelo e sul suo ruolo centrale nella guerra di Israele a Gaza, utilizzando interviste con fonti dell’intelligence e dichiarazioni poco note rilasciate dall’IDF e da ufficiali in pensione.
Questo articolo si basa anche sulle testimonianze pubblicate dalla rivista israelo-palestinese +972 Magazine e dal giornale in lingua ebraica Local Call, che hanno intervistato diverse fonti attuali ed ex della comunità dei servizi segreti israeliani a conoscenza della piattaforma del Vangelo.
I loro commenti offrono uno sguardo all’interno di un’unità di intelligence militare segreta e facilitata dall’intelligenza artificiale che sta svolgendo un ruolo significativo nella risposta di Israele al massacro di Hamas nel sud di Israele del 7 ottobre.
Il quadro che sta lentamente emergendo su come l’esercito israeliano sta sfruttando l’IA si inserisce in un contesto di crescenti preoccupazioni per i rischi posti ai civili, in quanto i militari avanzati di tutto il mondo stanno espandendo l’uso di sistemi automatizzati complessi e opachi sul campo di battaglia.
“Altri Stati staranno a guardare e impareranno”, ha dichiarato un ex funzionario della Casa Bianca che ha familiarità con l’uso dei sistemi autonomi da parte dell’esercito statunitense.
La guerra tra Israele e Hamas, hanno detto, sarebbe un “momento importante se l’IDF utilizzasse l’IA in modo significativo per fare scelte di puntamento con conseguenze sulla vita e sulla morte”.
Da 50 obiettivi all’anno a 100 al giorno
All’inizio di novembre, l’IDF ha dichiarato che la sua divisione di amministrazione degli obiettivi aveva identificato “più di 12.000” obiettivi a Gaza.
Descrivendo il processo di individuazione degli obiettivi dell’unità, un funzionario ha affermato che: “Lavoriamo senza compromessi per definire chi e cosa sia il nemico. Gli operatori di Hamas non sono immuni – non importa dove si nascondono”.
Le attività della divisione, costituita nel 2019 all’interno della direzione dell’intelligence dell’IDF, sono riservate.
Tuttavia, una breve dichiarazione sul sito web dell’IDF affermava che stava usando un sistema basato sull’AI chiamato Habsora (il Vangelo, Gospel in inglese) nella guerra contro Hamas per “produrre obiettivi a un ritmo veloce”.
L’IDF ha dichiarato che “attraverso l’estrazione rapida e automatica dell’intelligence”, il Vangelo ha prodotto raccomandazioni di puntamento per i suoi ricercatori “con l’obiettivo di una completa corrispondenza tra la raccomandazione della macchina e l’identificazione effettuata da una persona”.
Diverse fonti che hanno familiarità con i processi di targeting dell’IDF hanno confermato l’esistenza del Vangelo a +972/Local Call, affermando che è stato utilizzato per produrre raccomandazioni automatiche per attaccare obiettivi, come le case private di individui sospettati di essere operatori di Hamas o della Jihad islamica.
Negli ultimi anni, la divisione obiettivi ha aiutato l’IDF a costruire un database di 30.000-40.000 sospetti militanti. Sistemi come il Vangelo, hanno detto, hanno svolto un ruolo fondamentale nella costruzione di liste di individui autorizzati ad essere assassinati.
Aviv Kochavi, che è stato a capo dell’IDF fino a gennaio, ha dichiarato che la divisione bersagli è “alimentata da capacità di intelligenza artificiale” e comprende centinaia di ufficiali e soldati.
In un’intervista pubblicata prima della guerra, ha dichiarato che si tratta di “una macchina che produce grandi quantità di dati in modo più efficace di qualsiasi umano e li traduce in obiettivi da attaccare”.
Secondo Kochavi, “una volta che questa macchina è stata attivata” nella guerra di 11 giorni di Israele contro Hamas nel maggio 2021, ha generato 100 obiettivi al giorno. “Per metterlo in prospettiva, in passato producevamo 50 obiettivi a Gaza all’anno. Ora, questa macchina produce 100 obiettivi al giorno, il 50% dei quali viene attaccato”.
Non si sa con precisione quali forme di dati vengano ingerite nel Vangelo. Ma gli esperti hanno detto che i sistemi di supporto decisionale basati sull’intelligenza artificiale per il targeting analizzano in genere grandi insiemi di informazioni provenienti da una serie di fonti, come i filmati dei droni, le comunicazioni intercettate, i dati di sorveglianza e le informazioni ricavate dal monitoraggio dei movimenti e dei modelli di comportamento di individui e grandi gruppi.
La divisione bersagli è stata creata per risolvere un problema cronico dell’IDF: nelle precedenti operazioni a Gaza, l’aviazione ha ripetutamente esaurito gli obiettivi da colpire. Poiché gli alti ufficiali di Hamas scomparivano nei tunnel all’inizio di ogni nuova offensiva, hanno detto le fonti, sistemi come il Vangelo hanno permesso all’IDF di individuare e attaccare un gruppo molto più ampio di operatori più giovani.
Un funzionario, che ha lavorato sulle decisioni di puntamento nelle precedenti operazioni a Gaza, ha detto che l’IDF non aveva mai preso di mira le case dei membri minori di Hamas per i bombardamenti. Ha detto di ritenere che ciò sia cambiato per l’attuale conflitto, con le case dei sospetti agenti di Hamas ora prese di mira indipendentemente dal grado.
“Si tratta di molte case”, ha detto il funzionario a +972/Local Call. “I membri di Hamas che non contano nulla vivono nelle case di tutta Gaza. Perciò contrassegnano la casa, la bombardano e uccidono tutti coloro che vi abitano”.
Agli obiettivi viene assegnato un “punteggio” per il probabile numero di vittime civili
Nella breve dichiarazione dell’IDF sulla sua divisione di obiettivi, un alto funzionario ha detto che l’unità “produce attacchi precisi contro le infrastrutture associate ad Hamas, infliggendo grandi danni al nemico e danni minimi ai non combattenti”.
La precisione degli attacchi raccomandati dalla “banca degli obiettivi dell’IA” è stata sottolineata in diversi rapporti dei media israeliani. Il quotidiano Yedioth Ahronoth ha riferito che l’unità “si assicura che, per quanto possibile, non vi siano danni ai civili non coinvolti”.
Un’ex fonte militare israeliana di alto livello ha dichiarato al Guardian che gli agenti utilizzano una misurazione “molto accurata” del tasso di civili che evacuano un edificio poco prima di un attacco. “Usiamo un algoritmo per valutare quanti civili sono rimasti. Ci dà un verde, un giallo, un rosso, come un segnale stradale”.
Tuttavia, gli esperti di IA e conflitti armati che hanno parlato con il Guardian si sono detti scettici riguardo alle affermazioni secondo cui i sistemi basati sull’IA ridurrebbero i danni ai civili incoraggiando una maggiore precisione nel colpire gli obiettivi.
Un avvocato che fornisce consulenza ai governi sull’IA e sul rispetto del diritto umanitario ha affermato che ci sono “poche prove empiriche” a sostegno di tali affermazioni. Altri hanno sottolineato l’impatto visibile dei bombardamenti.
“Guardate il paesaggio fisico di Gaza”, ha detto Richard Moyes, un ricercatore a capo di Article 36, un gruppo che si batte per ridurre i danni causati dalle armi.
“Stiamo assistendo all’appiattimento diffuso di un’area urbana con armi esplosive pesanti, quindi affermare che la precisione e la ristrettezza della forza esercitata non sono confermate dai fatti”.
Secondo i dati diffusi dall’IDF a novembre, nei primi 35 giorni di guerra Israele ha attaccato 15.000 obiettivi a Gaza, una cifra notevolmente superiore alle precedenti operazioni militari nel territorio costiero densamente popolato. In confronto, nella guerra del 2014, durata 51 giorni, l’IDF ha colpito tra i 5.000 e i 6.000 obiettivi.
Diverse fonti hanno riferito al Guardian e a +972/Local Call che quando si autorizzava un attacco alle case private di individui identificati come operatori di Hamas o della Jihad islamica, i ricercatori degli obiettivi conoscevano in anticipo il numero di civili che si prevedeva sarebbero stati uccisi.
Ogni obiettivo, hanno detto, aveva un file contenente un punteggio di danno collaterale che stabiliva quanti civili potevano essere uccisi in un attacco.
Una fonte che ha lavorato fino al 2021 alla pianificazione degli attacchi per l’IDF ha detto che “la decisione di colpire è presa dal comandante dell’unità in servizio”, alcuni dei quali erano “più propensi al grilletto di altri”.
La fonte ha detto che ci sono state occasioni in cui “c’erano dubbi su un obiettivo” e “abbiamo ucciso quello che pensavo fosse una quantità sproporzionata di civili”.
Un portavoce militare israeliano ha dichiarato che: “In risposta ai barbari attacchi di Hamas, l’IDF opera per smantellare le capacità militari e amministrative di Hamas. In netto contrasto con gli attacchi intenzionali di Hamas contro uomini, donne e bambini israeliani, l’IDF segue il diritto internazionale e prende precauzioni fattibili per mitigare i danni ai civili”.
‘Fabbrica di assassini di massa’
Fonti che hanno familiarità con il modo in cui i sistemi basati sull’intelligenza artificiale sono stati integrati nelle operazioni dell’IDF hanno affermato che tali strumenti hanno accelerato in modo significativo il processo di creazione dei bersagli.
“Prepariamo i bersagli automaticamente e lavoriamo secondo una lista di controllo”, ha dichiarato a +972/Local Call una fonte che in passato ha lavorato nella divisione bersagli. “È davvero come una fabbrica. Lavoriamo velocemente e non c’è tempo per approfondire l’obiettivo. L’opinione è che siamo giudicati in base al numero di obiettivi che riusciamo a generare”.
Una fonte separata ha detto alla pubblicazione che il Vangelo ha permesso all’IDF di gestire una “fabbrica di assassini di massa” in cui “l’enfasi è sulla quantità e non sulla qualità”. Un occhio umano, hanno detto, “esaminerà gli obiettivi prima di ogni attacco, ma non ha bisogno di dedicare loro molto tempo”.
Per alcuni esperti che studiano l’IA e il diritto internazionale umanitario, un’accelerazione di questo tipo solleva una serie di preoccupazioni.
La dott.ssa Marta Bo, ricercatrice presso l’Istituto internazionale di ricerca sulla pace di Stoccolma, ha affermato che anche quando “gli esseri umani sono nel giro” c’è il rischio che sviluppino “pregiudizi di automazione” e “si affidino eccessivamente a sistemi che arrivano ad avere un’influenza eccessiva su decisioni umane complesse”.
Moyes, dell’Articolo 36, ha affermato che quando ci si affida a strumenti come il Vangelo, un comandante “riceve una lista di obiettivi generata da un computer” e “non necessariamente sa come la lista è stata creata o ha la capacità di interrogare e mettere in discussione adeguatamente le raccomandazioni di puntamento”.
“C’è il rischio”, ha aggiunto, “che gli uomini, affidandosi a questi sistemi, diventino ingranaggi di un processo meccanizzato e perdano la capacità di considerare il rischio di danni ai civili in modo significativo”.
fonte Blondet:
https://www.maurizioblondet.it/cosa-israele-ha-chiamato-rivelazione-di-cristo/
++
cit off
++