Volgens een onderzoek heeft kunstmatige intelligentie ons mogelijk verhinderd contact te maken met buitenaardse wezens
Als we nog steeds geen buitenaardse wezens kunnen vinden, kan kunstmatige intelligentie daar volgens een nieuw onderzoek de schuld van zijn. Waarom? Laten we daar samen achter komen.
De Great Filter theorie en de zoektocht naar buitenaardse contacten
Freepik
Wetenschappers zijn al zo lang ze zich kunnen herinneren op zoek naar buitenaards contact, maar in feite is er nog nooit bewijs verzameld van hun bestaan, hoewel het op zijn zachtst gezegd aanmatigend zou zijn om je voor te stellen dat je op de enige planeet in het hele universum zou leven waar levensvormen voorkomen. Een nieuw onderzoek heeft aangetoond dat kunstmatige intelligentie verantwoordelijk zou kunnen zijn voor het gebrek aan contact tussen buitenaardse wezens en de mensheid.
Gezien de uitgestrektheid van de kosmos, die vol sterren en planeten is, is het nogal vreemd dat er nooit tekenen zijn geweest die getuigen van de aanwezigheid van buitenaardse beschavingen. Deze “absurditeit” wordt de Fermiparadox genoemd, die al lange tijd de wetenschappelijke belangstelling trekt en voor grote verbijstering zorgt. Nu vraagt een wetenschapper zich af of de snelle ontwikkeling van kunstmatige intelligentie niet het geheim is achter dit gebrek aan buitenaards contact. Het idee is gebaseerd op de theorie van de “Great Filter”, volgens welke intelligent leven grote obstakels en moeilijkheden moet overwinnen om zich te kunnen ontwikkelen tot een geavanceerde beschaving en zo de ruimte te kunnen verkennen.
Van AI tot ASI, kunstmatige superintelligentie
Michael Garrett, astrofysicus aan de Universiteit van Manchester in het Verenigd Koninkrijk, suggereert dat de mysterieuze Great Filter wel eens zou kunnen liggen in de evolutie van kunstmatige intelligentie naar kunstmatige superintelligentie. Na de ongelooflijke vooruitgang van AI richten wetenschappers zich nu op een verdere vooruitgang, namelijk ASI, oftewel kunstmatige superintelligentie. Dit is een vorm van kunstmatige intelligentie die niet alleen in staat is om de menselijke intelligentie te overtreffen, maar ook vrij zou zijn van menselijke leerbeperkingen in termen van snelheid.
Volgens het onderzoek zou de grenzeloze ontwikkeling van ASI ertoe kunnen leiden dat beschavingen mogelijk binnen tweehonderd jaar uitgeput raken. Een levensduur van slechts twee eeuwen zou kunnen verklaren waarom SETI, Search for Extraterrestrial Intelligence, nooit het bestaan van technologisch geavanceerde buitenaardse beschavingen in ons melkwegstelsel heeft ontdekt.
"Dringende regelgeving noodzakelijk voor AI"
Freepik
Volgens Garrett is er dringend regelgeving nodig op het gebied van AI-ontwikkeling. Natuurkundige Stephen Hawking heeft gewaarschuwd voor de ontwikkeling van AI die die van de mens kan overtreffen. Garrett legde uit: "Zonder praktische regulering kan AI een ernstige bedreiging vormen voor de toekomst van niet alleen onze technische beschaving, maar van alle andere."
Uiteindelijk speculeert de astrofysicus dat onoverkomelijke obstakels in de loop van de evolutie van beschavingen hen ervan weerhielden om beschavingen in de ruimte te worden. "De snelle vooruitgang van AI zou kunnen samenvallen met een kritieke fase in de ontwikkeling van een beschaving: de overgang van een mono-planetaire soort naar een multi-planetaire soort.” Het risico is daarom dat we wankelen als AI ons vermogen om het te controleren en onze Melkweg te verkennen te boven gaat. "In dit scenario schat ik dat de typische levensduur van een technologische beschaving minder dan 100 jaar zou kunnen zijn, wat ongeveer de tijd is tussen het vermogen om signalen tussen de sterren te ontvangen en uit te zenden (1960) en de geschatte verschijning van de ASI (2040) op aarde. Het is aan ons allemaal om ervoor te zorgen dat wanneer we naar de sterren reiken, we dat niet doen als een waarschuwing voor andere beschavingen, maar als een baken van hoop - een soort die heeft geleerd om te gedijen naast kunstmatige intelligentie”, concludeert Garrett.