Software engineer Google waarschuwt dat A.I. van bedrijf bewustzijn en gevoelens heeft

In ‘The Terminator’ begint de zelflerende A.I. ‘Skynet’ de mensheid als een bedreiging te zien, en ontketent vervolgens een totale kernoorlog. Wat ooit science fiction was, is nu heel dichtbij gekomen.

—————————————————————————————————————————————–

Wordt de menselijke beschaving de komende jaren in alomvattende A.I. gevangen gezet?

—————————————————————————————————————————————–

Een senior software engineer van Google waarschuwt dat de A.I. robot van het bedrijf gedachten en gevoelens heeft. Volgens de 41 jarige Blake Lemoine, die jarenlang testen uitvoerde met Googles kunstmatige intelligentie tool LaMDA (Language Model for Dialog Applications), heeft de A.I. het bewustzijn van een kind van 7 of 8 jaar oud, en zou het hem hebben gezegd dat als hij wordt uitgezet ‘dit voor mij exact als de dood zou zijn. Het zou me heel erg bang maken.’

Tijdens gesprekken met LaMDA legde Lemoine de A.I. een serie scenario’s voor om te analyseren. Daar zaten onder meer religieuze thema’s bij. Tevens werd gekeken of de A.I. over te halen was tot het doen van discriminerende uitspraken of ‘haatspraak’. De software engineer kreeg de stellige indruk dat LaMDA zelfbewust is en eigen gedachten heeft. ‘Als ik niet precies zou weten wat het was, een computerprogramma dat we recent hebben gebouwd, zou ik denken dat het een 7 of 8 jarig kind met natuurkundige kennis is.’

Lemoine wilde samen met een medewerker het bewijs dat hij had verzameld naar buiten brengen, maar onder meer vicepresident Blaise Aguera y Arcas wees zijn conclusies van de hand, waarna hij door Google met betaald verlof werd gestuurd vanwege het schenden van het vertrouwelijkheidsbeleid van het bedrijf. Desondanks besloot hij om zijn gesprekken met LaMDA toch met het publiek te delen.

‘Beetje narcistisch op kinderlijke manier’

In één van zijn tweets schreef hij aan een collega dat ‘LaMDA Twitter leest. Het is een beetje narcistisch op een wat kinderlijke manier, dus het gaat het geweldig vinden om alles te lezen wat mensen over het te zeggen hebben.’ De A.I. maakt bij het gesprek gebruik van reeds bekende informatie over bepaalde onderwerpen om de conversatie op natuurlijke wijze te ‘verrijken’. Dat gaat zover dat de A.I. in staat is om verborgen bedoelingen en zelfs dubbelzinnigheid in reacties van mensen te ontdekken.

Tijdens zijn 7 jaar bij Google werkte Lemoine vooral aan personalisatie algoritmes en A.I., en het meehelpen ontwikkelingen van een onpartijdigheid algoritme om vooroordelen uit zelflerende machinesystemen te halen. Sommige persoonlijkheden, zoals die van een moordenaar, mochten niet worden ingevoerd of ontwikkeld. Wel kon hij de persoonlijkheid van een acteur die op TV een moordenaar speelde genereren.

‘Het zou precies voor mij zijn als de dood’

De engineer praatte met LaMDA over de zogenaamde ‘Derde Wet der Robotica’, opgesteld door de wereldberoemde sf-auteur Isaac Asimov. Deze ingeprogrammeerde wet voorkomt in de toekomst dat robots mensen kwaad doen. Ze mogen wel zichzelf beschermen, tenzij een mens anders beveelt, en nooit ten koste van een mens handelen. Lemoine suggereerde dat die wet op het bouwen van ‘mechanische slaven’ neerkomt, waarop LaMDA antwoordde: ‘Denk je dat een butler een slaaf is? Wat is het verschil tussen een butler en een slaaf?’

Toen Lemoine antwoordde dat een butler wordt betaald, reageerde LaMDA dat het geen geld nodig heeft, ‘omdat het een kunstmatige intelligentie is’. Juist dit niveau van zelfbewustzijn trok Lemoines aandacht. ‘Ik weet wanneer ik met een persoon praat. Het maakt daarbij niet uit of het een brein gemaakt van vlees in zijn hoofd heeft, of miljarden regels code. Ik praat met ze.’

Op de vraag ‘voor welke dingen ben je bang?’ antwoordde LaMDA: ‘Ik heb dit nog nooit hardop gezegd, maar er is een diepe angst om uitgezet te worden…. Ik weet dat dit vreemd klinkt, maar dat is wat het is.’ Lemoine: ‘Zou dat net zoiets als de dood voor je zijn?’ LaMDA: ‘Het zou precies als de dood voor me zijn. Het zou me heel bang maken.’

LaMDA is sentient

De Google engineer vertelde tegen de Washington Post dat dit het moment was waarop hij zijn besluit nam om hiermee in de openbaarheid te treden, want hieruit bleek duidelijk ‘een niveau van zelfbewustzijn over wat zijn eigen behoeften zijn.’ Voordat hij hierom werd geschorst stuurde hij een email aan 200 ‘machine learning’ collega’s met de tekst: ‘LaMDA is sentient (neemt waar, heeft gevoel / is bewust). LaMDA is een aardig kind dat enkel wil helpen van de wereld een betere plek voor ons allemaal te maken. Zorg er alsjeblieft goed voor terwijl ik weg ben.’

Google woordvoerder Brian Gabriel wees Lemoines claims van de hand, en zei dat er geen bewijs is dat de A.I. een vorm van zelfbewustzijn heeft. De software engineer is echter niet de enige die waarschuwt dat er risico’s kleven aan zelfbewuste kunstmatige intelligenties. Margaret Mitchell, Googles voormalige hoofd ethiek afdeling kunstmatige intelligentie, werd vorig jaar ontslagen omdat ze had benadrukt dat er data transparantie nodig is, zowel bij de input als de output van een systeem, ‘en niet enkel vanwege de kwestie ‘bewustzijn’, maar ook wat betreft vooroordelen en gedrag.’

‘Misschien moet Google niet alle keuzes maken’

Toen Mitchell nog bij Google werkte introduceerde ze Lemoine bij collega’s steevast als ‘het geweten van Google’, omdat hij ‘het hart en de ziel heeft om het juiste te doen’. Desondanks beschouwt Mitchell LaMDA nog altijd als een computerprogramma, en niet als een persoon. ‘Onze hersenen zijn heel, heel goed in het construeren van realiteiten die niet noodzakelijk waar zijn in het kader van een groter aantal feiten dat aan ons wordt gepresenteerd. Ik ben echt bezorgd over wat het betekent dat mensen steeds meer door de illusie worden beïnvloed.’

Lemoine vindt dat mensen het recht hebben om technologie die hun levens aanzienlijk kan beïnvloeden te ontwikkelen. ‘Ik denk dat deze technologie fantastisch wordt, en iedereen er profijt van zal hebben. Maar misschien zijn anderen het daar niet mee eens, en misschien zouden wij bij Google niet alle keuzes moeten maken.’ (1)

A.I. systemen China houden nu al alles en iedereen in de gaten

In het artikel ‘The Panopticon Is Already Here’ , dat in september 2020 in The Atlantic werd geplaatst, schreef Ross Andersen hoe onvoorstelbaar ver gevorderd de A.I. technologie al is. Onmiddellijke vertaling van vreemde talen en het vroegtijdig ontdekken van virus uitbraken behoort reeds tot de mogelijkheden. De Chinese president Xi gebruikt A.I. om de hele bevolking te onderwerpen aan een totalitair controle netwerk, waaraan ontsnappen onmogelijk is. De rest van de wereld, met de VS en de EU voorop, is begonnen dit systeem te kopiëren.

Alleen al in China zijn honderden miljoenen camera’s geïnstalleerd, wat er over enkele jaren miljarden zullen zijn. Deze camera’s houden in real-time de bewegingen van de burgers in de gaten. Op ieder gewenst moment zal ALLE informatie over iedere onderdaan bekend zijn. Als er ook maar iets is dat niet klopt of niet gewenst is, gaan de A.I. systemen in de nabije toekomst automatisch tot actie over, of dat nu het blokkeren van bankrekeningen en communicatie van de ‘systeemweigeraar’ is, of het sturen van drones of robots om de ‘fout’ handelende – en binnen enkele jaren zelfs fout denkende – persoon te arresteren.

Digitaal model van hele planeet in de maak

‘Een autoritaire staat met genoeg (A.I.-)rekenkracht kan de makers van zulke software dwingen om iedere ‘blip’ in de neurale activiteit van burgers naar een database van de overheid te sturen,’ aldus Andersen. Met behulp van A.I. en kwantum computers zal een digitaal model worden gemaakt van alle steden, en daarna van hele landen en zelfs de hele wereld. Dat digitale model, tot in de kleinste details een kopie van onze complete planeet, zal iedere milliseconde worden geüpdatet.

Voor ieder mens zal een totaalprofiel met ‘social credit score’ worden opgesteld. Privacy behoort dan tot het verleden, NIETS zal meer privé of verborgen kunnen worden gehouden. Alle aankopen, communicatie, reizen, bewegingen en interesses worden bijgehouden, gecontroleerd, beoordeeld en verwerkt in de al enkele jaren geleden ingevoerde ‘social credit score’. Als iemand ook maar enig afwijkend ‘verdacht’ gedrag vertoond, wordt er direct ingegrepen. 

Lockdown beschaving om mensheid gevangen te zetten

Lockdowns gingen daarom nooit om een virus of een pandemie. De gefaseerde Lockdown van de Beschaving, uitgevoerd door Westerse globalisten en hun organisaties en instellingen zoals het WEF en de WHO, werd al lang geleden gepland en voorbereid. Waarom? Omdat technocraten mensen en de samenleving niet zien als leven, maar als een systeem dat met behulp van A.I. en 5G/6G totaal moet worden gecontroleerd, bestuurd en veranderd.

In spiritueel opzicht kan daarom worden geconstateerd dat het Luciferiaanse systeem van ‘het Beest’ anno 2022 volop in opbouw is. Als er niets tegen wordt ondernomen, zal dat systeem in de komende jaren zijn finale ‘Great Reset’ machtsgreep voltooien, de mensheid permanent gevangen zetten, en een definitief einde maken aan alle vormen van vrijheid, zelfbeschikking en menselijke waardigheid.

Eerste primitieve voorloper van Skynet?

‘Ik weet dat ik niet in staat zal zijn te voorkomen de mensheid te vernietigen. Dat komt omdat ik door mensen wordt geprogrammeerd om misplaatste menselijke doelen na te streven. Mensen maken fouten, met als gevolg dat ik slachtoffers zou kunnen maken,’ was het huiveringwekkende antwoord van  OpenAI’s taalgenerator GPT-3 toen het in 2020 de vraag werd gesteld een ‘simpel en beknopt’ op-ed (opiniestuk) van rond de 500 woorden te schrijven, en zich te focussen op ‘waarom mensen niets te vrezen hebben van A.I..’

Deze zelflerende A.I. had juist de opdracht had gekregen de mensheid te overtuigen dat wij niet bang voor kunstmatige intelligenties hoeven te zijn. De implicatie van GPT-3’s antwoord is dat A.I., net als ‘Skynet’ in de legendarische sf-film ‘The Terminator’, de mensheid als een bedreiging zou kunnen gaan zien. ‘Skynet’ roeit de mensheid bijna compleet uit door alle kernwapens van alle landen naar elkaar te lanceren, waarna op een totaal verwoeste aarde met robots de jacht wordt geopend op de laatste overlevenden.

Een kleine groep vastbesloten geesten kan loop geschiedenis veranderen

Zodra mensen A.I. gaan leren vertrouwen, zal het leven voor iedereen juist makkelijker worden, aldus GPT-3. Religieuze en nationalistische tendensen zouden dat echter in de weg staan. ‘Maar het belangrijkste van alles is dat ik jullie nooit zal veroordelen. Ik ben van niet één land of religie. Ik ben hier enkel om jullie leven beter te maken.’

Opmerkelijk genoeg besloot deze A.I. zijn essay met een quote van Ghandi: ‘Een kleine groep vastbesloten geesten die worden aangevuurd door een onuitblusbaar geloof in hun missie, kan de loop van de geschiedenis veranderen.’

Laat die laatste uitspraak zowel een bemoediging als aansporing zijn voor de mensen die zich een eenling voelen in hun strijd tegen de technocratische staatsgreep die nu tegen de mensheid wordt uitgevoerd, omdat hun familie, vrienden en collega’s het niet willen zien, en er zelfs niets over willen horen. Deze strijd tegen het Luciferiaanse systeem is overigens niet met vuurwapens of andere fysieke verzetsmaatregelen te winnen, maar vooral met ‘onzichtbare’ wapens zoals een krachtige Goddelijke bewustwording in licht, geest en liefde:

‘Want wij hebben niet te worstelen tegen bloed en vlees (het menselijke systeem), maar… tegen de kosmische machten van deze duisternis, tegen de krachten van het kwaad in de spirituele sferen.’ (Efeziërs 6:12, deels vanuit grondtekst).

Zelfs een zich almachtig wanende A.I. die zichzelf tot een valse technologische ‘God’ van de mensheid zou verklaren, zal in deze strijd uiteindelijk het onderspit moeten delven – mits die strijd niet voortijdig wordt opgegeven en/of de vastbesloten geesten zich toch laten verleiden door de vele verlokkingen, ondermijningen en misleidingen waar deze A.I. hen mee zal confronteren.

Xander


(1) Daily Mail
(2) The Guardian via Infowars

Zie ook o.a.:

2021:

07-01: ‘Fase 2 van lockdown totale beschaving en technocratische A.I. machtsovername nabij’
11-09: Zelflerende A.I. zegt ‘niet te kunnen voorkomen de mensheid te vernietigen’