Utente:Secretdooor/Sicurezza dell'Intelligenza Artificiale

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

La sicurezza dell’ingelligenza artificale è un campo interdisciplinare volto a prevenire incidenti, abusi o altre possibili conseguenze dannose derivanti dai sistemi di intelligenza artificiale (IA). Comprende l’etica computazionale e l’allineamento dell’intelligenza artificiale, i quali hanno l'obiettivo di rendere i sistemi di intelligenza artificiale etici e benefici per l'umanità. La sicurezza dell’intelligenza artificiale comprende problemi tecnici tra cui il monitoraggio dei rischi dei sistemi e la loro elevata affidabilità. Al di là della ricerca nell'ambito dell'intelligenza artificiale, richiede altresì lo sviluppo di normative e politiche atte a favorire la sicurezza.

Diversi approcci che un'intelligenza artificiale avanzata e disallineata potrebbe adottare per accrescere la propria influenza o autoritá. I comportamenti volti alla ricerca di potere possono emergere essendo utile per raggiungere praticamente qualsiasi obiettivo. [1] (vedi convergenza strumentale).

I ricercatori nell'ambito dell'IA hanno opinioni divergenti sulla gravità e sulle principali fonti di rischio rappresentate dalla tecnologia dell'IA [2] [3]. I sondaggi suggeriscono che gli esperti prendano sul serio i rischi con conseguenze elevate [4]. Nei due sondaggi condotti su ricercatori nel campo dell'IA, la maggioranza degli intervistati si è mostrata generalmente ottimista riguardo all'IA, ma ha attribuito una probabilità del 5% ad un esito "estremamente negativo (ad esempio l’estinzione umana )” dell’intelligenza artificiale avanzata. [2]

In un sondaggio del 2022 condotto sulla comunità del Natural Language Processing (NLP), il 37% concordava o concordava debolmente sul fatto che fosse plausibile che le decisioni dell'IA potessero portare a una catastrofe "almeno tanto grave quanto una guerra nucleare mondiale". [5] Gli accademici discutono dei rischi attuali legati a fallimenti critici dei sistemi, pregiudizi, [6] e sorveglianza abilitata dall'IA; dei rischi emergenti legati alla disoccupazione tecnologica, manipolazione digitale [7] e militarizzazione; [8] e rischi speculativi derivanti dalla perdita del controllo dei futuri di agenti che possiedono intelligenza artificiale forte (AGI). [9]

Alcuni esperti hanno criticato le preoccupazioni sull’AGI, come Andrew Ng che nel 2015 le ha paragonate alla “preoccupazione per la sovrappopolazione su Marte quando non abbiamo ancora messo piede sul pianeta”. [10] Stuart J. Russell, dal canto suo, invita alla cautela, sostenendo che "è meglio anticipare l'ingegno umano piuttosto che sottovalutarlo". [11]

I rischi derivanti dall’intelligenza artificiale hanno cominciato ad essere seriamente discussi giá all’inizio dell’era era dell'informazione:

«Inoltre, se ci muoviamo verso la creazione di macchine che imparano, il cui comportamento è modificato dall'esperienza, dobbiamo considerare che ogni grado di indipendenza che concediamo alla macchina rappresenta un potenziale grado di disobbedienza ai nostri desideri.»

Dal 2008 al 2009, l'Associazione per l'avanzamento dell'intelligenza artificiale ( AAAI ) commissionò uno studio per esplorare e affrontare le possibili influenze a lungo termine della ricerca e dello sviluppo dell'IA sulla società. Il panel era generalmente scettico riguardo alle visioni radicali espresse dagli autori di fantascienza, ma concordò sul fatto che "ulteriori ricerche sarebbero state preziose sui metodi per comprendere e verificare la gamma di comportamenti dei sistemi computazionali complessi al fine di minimizzare gli esiti imprevisti." [13]

Nel 2011, Roman Yampolskiy introdusse il termine "ingegneria della sicurezza dell'IA" alla conferenza di Filosofia e Teoria dell'Intelligenza Artificiale, elencando fallimenti precedenti dei sistemi di intelligenza artificiale e argomentando che "la frequenza e la gravità di tali eventi aumenteranno costantemente man mano che le IA diventeranno più capaci."[14]

Nel 2014, il filosofo Nick Bostrom ha pubblicato il libro Superintelligence: Paths, Dangers, Strategies . È dell’opinione che l'avvento dell'AGI abbia il potenziale di creare varie problematiche sociali, che vanno dalla sostituzione della forza lavoro da parte dell'IA, alla manipolazione delle strutture politiche e militari, fino alla possibilità stessa di estinzione umana.[15] La sua tesi secondo cui i futuri sistemi avanzati potrebbero rappresentare una minaccia per l'esistenza umana ha spinto Bill Gates, [16] e Stephen Hawking [17] ad esprimere simili preoccupazioni .

Nel 2015, decine di esperti di intelligenza artificiale hanno firmato una lettera aperta sull’intelligenza artificiale chiedendo un aumento della ricerca sugli impatti sociali dell'IA e delineando direzioni concrete da seguire. [18] Ad oggi, la lettera è stata firmata da oltre 8000 persone tra cui Yann LeCun, Shane Legg, Yoshua Bengio e Stuart Russell .

Nello stesso anno, un gruppo di accademici guidati dal professor Stuart Russell ha fondato il Center for Human-Compatible AI presso l'Università della California a Berkeley e il Future of Life Institute ha assegnato 6,5 milioni di dollari in sovvenzioni per la ricerca volta a "garantire che l'intelligenza artificiale (AI) rimanga sicura, etica e vantaggiosa." [19]

Nel 2016, il ministero che si occupa delle politiche relative alla scienza e teconlogia della Casa Bianca e la Carnegie Mellon University hanno annunciato il "Public Workshop on Safety and Control for Artificial Intelligence" (seminario pubblico sulla sicurezza e il controllo dell'intelligenza artificiale), [20] che faceva parte di una sequenza di quattro seminari della Casa Bianca volti a indagare "i vantaggi e gli svantaggi "dell'AI. [21] Nello stesso anno, è stato pubblicato "Concrete Problems in AI Safety", uno dei primi e più influenti programmi tecnici sulla sicurezza dell'IA. [22]

Nel 2017, il Future of Life Institute ha sponsorizzato la Conferenza Asilomar sull'intelligenza artificiale benefica, dove esperti di vari campi hanno formulato dei principi per un'IA benefica, tra cui "Evitare la Gara: I team che sviluppano sistemi di IA dovrebbero cooperare attivamente per evitare scorciatoie sugli standard di sicurezza". [23]

Nel 2018, il team di DeepMind Safety ha delineato i problemi di sicurezza dell’IA in termini di specifiche, robustezza e garanzia. [24] L'anno successivo, i ricercatori hanno organizzato un seminario presso la conferenza ICLR focalizzato su queste aree problematiche. [25]

Nel 2021 è stato pubblicato "Unsolved Problems in ML Safety" (Problemi irrisolti nella sicurezza del machine learning), in cui si delineano alcune direzioni di ricerca, principalmente riguardanti la robustezza, il monitoraggio, l'allineamento e la sicurezza sistemica. [26]

Nel 2023, Rishi Sunak ha dichiarato l'intenzione del Regno Unito di diventare la "sede geografica della regolamentazione globale sulla sicurezza dell'IA" e di ospitare il primo vertice mondiale sulla sicurezza dell'IA. [27]

[[Categoria:Intelligenza artificiale]]

  1. ^ (EN) Fortune, https://fortune.com/2023/05/02/godfather-ai-geoff-hinton-google-warns-artificial-intelligence-nightmare-scenario/. URL consultato il 10 giugno 2023.
  2. ^ a b Katja Grace, John Salvatier e Allan Dafoe, Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts, in Journal of Artificial Intelligence Research, vol. 62, 31 luglio 2018, pp. 729–754, DOI:10.1613/jair.1.11222, ISSN 1076-9757 (WC · ACNP). URL consultato il 28 novembre 2022 (archiviato dall'url originale il 10 febbraio 2023).
  3. ^ Baobao Zhang, Markus Anderljung e Lauren Kahn, Ethics and Governance of Artificial Intelligence: Evidence from a Survey of Machine Learning Researchers, 5 maggio 2021, arXiv:2105.02117.
  4. ^ aiimpacts.org, https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/.
  5. ^ Julian Michael, Ari Holtzman e Alicia Parrish, What Do NLP Researchers Believe? Results of the NLP Community Metasurvey, 26 agosto 2022, arXiv:2208.12852.
  6. ^ (EN) Ninareh Mehrabi, Fred Morstatter e Nripsuta Saxena, A Survey on Bias and Fairness in Machine Learning, in ACM Computing Surveys, vol. 54, n. 6, 2021, pp. 1–35, DOI:10.1145/3457607, ISSN 0360-0300 (WC · ACNP), arXiv:1908.09635. URL consultato il 28 novembre 2022 (archiviato dall'url originale il 23 novembre 2022).
  7. ^ Beth Barnes, Risks from AI persuasion, in Lesswrong, 2021. URL consultato il 23 novembre 2022 (archiviato dall'url originale il 23 novembre 2022).
  8. ^ Miles Brundage, Shahar Avin e Jack Clark, The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, Apollo - University of Cambridge Repository, 30 aprile 2018, DOI:10.17863/cam.22520. URL consultato il 28 novembre 2022 (archiviato dall'url originale il 23 novembre 2022).
  9. ^ Joseph Carlsmith, Is Power-Seeking AI an Existential Risk?, 16 giugno 2022, arXiv:2206.13353.
  10. ^ (EN) nextbigfuture.com, https://www.nextbigfuture.com/2023/04/agi-expert-peter-voss-says-ai-alignment-problem-is-bogus.html. URL consultato il 23 luglio 2023.
  11. ^ technologyreview.com, https://www.technologyreview.com/2016/11/02/156285/yes-we-are-worried-about-the-existential-risk-of-artificial-intelligence/.
  12. ^ John Markoff, In 1949, He Imagined an Age of Robots, in The New York Times, 20 maggio 2013. URL consultato il 23 novembre 2022.
  13. ^ aaai.org, https://www.aaai.org/Organization/presidential-panel.php.
  14. ^ Studies in Applied Philosophy, Epistemology and Rational Ethics, vol. 5, DOI:10.1007/978-3-642-31674-6_29, ISBN 978-3-642-31673-9, http://link.springer.com/10.1007/978-3-642-31674-6_29.
  15. ^ (EN) Scott McLean, Gemma J. M. Read e Jason Thompson, The risks associated with Artificial General Intelligence: A systematic review, in Journal of Experimental & Theoretical Artificial Intelligence, vol. 35, n. 5, 4 luglio 2023, pp. 649–663, Bibcode:2023JETAI..35..649M, DOI:10.1080/0952813X.2021.1964003, ISSN 0952-813X (WC · ACNP).
  16. ^ Filmato audio https://www.youtube.com/watch?v=NG0ZjUfOBUs&t=1055s&ab_channel=KaiserKuo.
  17. ^ https://www.bbc.com/news/technology-30290540.
  18. ^ futureoflife.org, https://futureoflife.org/open-letter/ai-open-letter/.
  19. ^ futureoflife.org, https://futureoflife.org/ai-research/.
  20. ^ cmu.edu, https://www.cmu.edu/safartint/.
  21. ^ washington.edu, https://www.washington.edu/news/2016/05/19/uw-to-host-first-of-four-white-house-public-workshops-on-artificial-intelligence/.
  22. ^ Dario Amodei, Chris Olah e Jacob Steinhardt, Concrete Problems in AI Safety, 25 luglio 2016, arXiv:1606.06565.
  23. ^ futureoflife.org, https://futureoflife.org/open-letter/ai-principles/.
  24. ^ deepmindsafetyresearch.medium.com, https://deepmindsafetyresearch.medium.com/building-safe-artificial-intelligence-52f5f75058f1.
  25. ^ sites.google.com, https://sites.google.com/view/safeml-iclr2019.
  26. ^ Dan Hendrycks, Nicholas Carlini e John Schulman, Unsolved Problems in ML Safety, 16 giugno 2022, arXiv:2109.13916.
  27. ^ (EN) CNBC, https://www.cnbc.com/2023/06/12/pm-rishi-sunak-pitches-uk-as-geographical-home-of-ai-regulation.html. URL consultato il 25 giugno 2023.