In een recente open brief, ondertekend door meer dan 30.000 mensen, waaronder Elon Musk, Steve Wozniak, Andrew Yang en vooraanstaande AI-onderzoekers, wordt opgeroepen tot een pauze van zes maanden op het trainen van AI-systemen krachtiger dan GPT-4. De brief, opgesteld door het Future of Life Institute, heeft echter tot veel ophef geleid. Sommige ondertekenaars trokken hun steun in, enkele prominente handtekeningen bleken vals te zijn en veel AI-experts en onderzoekers spraken zich openlijk uit tegen het voorstel en de aanpak van de brief.
Het Future of Life Institute is een non-profitorganisatie met als missie het verminderen van wereldwijde catastrofale en existentiële risico’s van krachtige technologieën. Het richt zich specifiek op het beperken van de langetermijnrisico’s voor de mensheid, zoals superintelligente AI. De open brief stelt voor om een pauze van zes maanden in te lassen voor het trainen van AI-systemen die krachtiger zijn dan GPT-4, zodat AI-laboratoria en onafhankelijke experts gezamenlijk veiligheidsprotocollen kunnen ontwikkelen en implementeren voor geavanceerde AI-ontwerpen.
Ondanks het verificatieproces van de ondertekenaars door het Future of Life Institute, bevatte de brief aanvankelijk valse handtekeningen, waaronder die van Sam Altman, CEO van OpenAI, de Chinese president Xi Jinping en Yann LeCun, hoofd AI-wetenschapper bij Meta. Deze valse handtekeningen zijn inmiddels verwijderd.
Kritiek op de open brief
Sinds de publicatie van de open brief is deze door veel AI-onderzoekers en zelfs door enkele ondertekenaars bekritiseerd. AI-experts betichten de brief ervan de “AI-hype” cyclus te bevorderen, in plaats van concrete acties te noemen of op te roepen tot aanpak van de huidige problemen. Emily M. Bender, professor in de taalkunde aan de Universiteit van Washington en medeauteur van het eerste in de brief aangehaalde artikel, stelt dat de brief haar onderzoek verkeerd gebruikt.
Haar onderzoek richt zich op de huidige problemen van grootschalige taalmodellen en hoe deze worden ingezet binnen onderdrukkende systemen, wat concreter en urgenter is dan hypothetische toekomstige AI.
Sasha Luccioni, onderzoekswetenschapper en klimaatleider bij Hugging Face, vertelde Vice dat de open brief misleidend is omdat het de aandacht vestigt op hypothetische krachten en schade van grote taalmodellen, in plaats van te kijken naar de huidige schade en deze aan te pakken.
Arvind Narayanan, universitair hoofddocent informatica aan de Universiteit van Princeton, is het ermee eens dat de open brief vol zit met AI-hype en stelt dat dit het moeilijker maakt om de huidige problemen met AI aan te pakken. Hij merkt op dat het langetermijndenken, dat in de brief wordt gepromoot, afleidt van de huidige problemen. AI wordt al geïntegreerd in banen en vermindert de behoefte aan bepaalde beroepen, zonder een “niet-menselijke geest” te zijn die ons “overbodig” maakt.
In een persconferentie benadrukte Yoshua Bengio, een Canadese computerscientist en oprichter van het onderzoeksinstituut Mila, dat een pauze van zes maanden nodig is om overheidsinstanties en andere regelgevende instanties in staat te stellen systemen te begrijpen, te controleren en te verifiëren, zodat ze veilig zijn voor het publiek. Bengio sprak zijn zorgen uit over de huidige concentratie van macht, die slecht is voor het kapitalisme, en de mogelijkheid dat AI-tools de democratie destabiliseren.
Max Tegmark, een professor in de natuurkunde aan het MIT’s NSF AI Institute for Artificial Intelligence and Fundamental Interactions (IAIFI) en de president van het Future of Life Institute, gaf aan dat in het ergste geval de mensheid geleidelijk de controle over de beschaving zou verliezen. Het huidige risico is dat “we de controle verliezen aan een groep niet-verkozen mensen in technologiebedrijven die een buitenproportionele invloed krijgen.”
Verre toekomst
Desondanks richten deze opmerkingen zich vooral op de verre toekomst en doen ze enigszins aan bangmakerij denken, zonder concrete maatregelen te bespreken behalve de pauze van zes maanden. Timnit Gebru, een computerscientist en oprichter van het Distributed Artificial Intelligence Research Institute, tweette dat het ironisch is dat de brief oproept tot een pauze op het gebruik van modellen krachtiger dan GPT-4, maar de vele zorgen rondom GPT-4 zelf niet aanpakt.
De open brief blijft controversieel en verdeeldheid zaaien onder AI-experts en onderzoekers. Hoewel sommigen het eens zijn met het idee van het beheersen van de risico’s van krachtige AI, zijn velen van mening dat de brief afleidt van de huidige problemen en zich te veel richt op een langetermijnperspectief. In plaats daarvan zou de focus moeten liggen op het aanpakken van de concrete schade en problemen die zich nu voordoen, zoals het bevorderen van transparantie en wetgeving met betrekking tot AI-technologieën.