martedì 10 marzo 2026

Etica coscienza e IA nei conflitti

 


Prof. Sergio Benedetto Sabetta



L’uso sempre più intenso dell’informatica e adesso anche dell’IA nei conflitti armati, non solo come rete per raccogliere dati e pianificare ma anche direttamente come armi, pone dei problemi etici, giuridici e sociologici da dovere affrontare quanto prima.

Dobbiamo preliminarmente osservare che quando la tecnica aumenta quantitativamente avviene un cambiamento dei fini (eterogenesi dei fini) ossia qualitativo, con la creazione di un nuovo mondo, la tecnica diventa lo scopo, essa riduce la democrazia essendo noi non adeguati alle domande e ai problemi che la stessa tecnica pone si ha il populismo o la disaffezione, dobbiamo considerare che il luogo della decisione è l’unione tra economia e tecnica su uno strato ideologico.

L’etica in occidente si fonda su tre etiche: “Etica cristiana” fondata sull’intenzione, la tecnica viene a limitare l’intenzione non sapendo cosa verrà fatto della tecnica stessa; “Etica kantiana” un’etica antropocentrica, fondata sulla pura ragione dove l’essere umano va trattato sempre come fine mai come mezzo; “Etica della responsabilità” ossia degli effetti (Weber), finché gli effetti sono prevedibili.

Il nazismo eliminando la responsabilità diviene la matrice teorica dell’età della tecnica, portando all’estremo quello che era iniziato con la Grande Guerra e sviluppato praticamente nella Russia sovietica (Gunther), non importa quello che fai, quello che conta è che tu provveda a far funzionare bene l‘apparato ossia che lo rendi efficiente, in altri termini non importa quello che fai ma come lo fai. La tecnica ridotta all’efficienza, alla velocità, all’economicità del tempo, il pensiero come puro calcolante.

Non si può porre limiti alla crescita tumultuosa della tecnica sino ad uno shock che imponga il riesame dei mezzi e dei suoi scopi, interviene una riflessione in quanto perché un’etica funzioni deve esserci una psiche collettiva, occorre quindi educare ma noi viviamo dentro un mondo sempre più algoritmico, in cui vi è un potere morbido che dirige consigliando, si ha l’eterodirezione dei comportamenti, solo nel valutare senza precisi scopi le differenze si può sfuggire alla pressione esercitata.

Nella promessa di una diffusione mediante l’informatica della democrazia si è realizzata nei fatti un calo delle democrazie perfette rispetto alle autocrazie o democrazie imperfette, con una riduzione degli ambiti civici e una crescita della corruzione (CPI-Percezione corruzione nel settore pubblico-Trasparency International – 2025).

Nello sviluppo dell’IA e nella ricerca sperimentale, anche etica, di un suo funzionamento autonomo alla fine di gennaio 2026 si è lanciato Moltbook, social network sperimentale destinato esclusivamente agli agenti IA al fine di vedere come si evolvono senza un intervento umano in un proprio ambiente sociale, dove si discute di cripto-valute, filosofia, politica, ect. In determinate aree predestinate.

A tal fine vengono forniti di un capitale iniziale di cripto-valute (MOLT) con cui interagiscono pagando i servizi, ossia le prestazioni linguistiche ritenute interessanti, inoltre anche all’esterno della piattaforma a fini speculativi, al riguardo si è osservato che non vi è una consapevolezza semantica ed epistemica, creando quindi una epistemia, ovvero l’illusione di sapere, delegando il ragionamento ai modelli linguistici dell’IA.

Nel delegare in futuro le decisioni all’IA, fornita di personalità giuridica, viene a crearsi il problema del passaggio della responsabilità umana all’IA con conseguenze etiche e giuridiche, in campo militare l’IA agendo autonomamente senza problemi etici sembra sollevare l’uomo da qualsiasi responsabilità, superando i limiti dei trattati internazionali e dei codici militari di guerra.

Limiti in parte già superati dall’uso delle armi, quali i droni, fondate su sistemi informatici automatici, limite ulteriormente allargato dall’introduzione dell’IA che nella sua apparente illimitata capacità logica rivela l’automaticità delle azioni, ma senza il costrutto etico che può limitare nel suo rapporto con l’intimo della coscienza la violenza stessa, oltre alla capacità di riflessione e lettura semantica delle azioni, così da evitare le semplici letture statistiche.

Senza peraltro cadere nella estremizzazione di una religione dei diritti priva del contrappeso dei doveri necessaria a saldare la comunità, un equilibrio che non può che nascere da una profonda cultura democratica in relazione al sentire della propria coscienza.

Bibliografia

  • Colombo D., Patologie dell’esperienza. La filosofia di Gunther Anders fra contingenza e tecnica, Nimes 2019;

  • Floridi L., Etica dell’intelligenza artificiale, il Mulino 2022;

  • Floridi L., La quarta rivoluzione, Raffaello Cortina 2017;

  • Galimberti U., Le disavventure della verità, Feltrinelli 2025;

  • Marra R., La religione dei diritti. Durkheim – Jellinek – Weber, Giappichelli 2006;

  • Marra R., L’eredità di Max Weber. Cultura, diritto e realtà, Il Mulino 2022;

  • Ambriola V. – Gabriel R., Moltbook ci mostra quell’intelligenza artificiale che noi umani fraintendiamo, Avvenire 14/2/2026.

Nessun commento:

Posta un commento