14. Cognitieve revolutie Flashcards
De ontwikkeling van kunstmatige intelligentie begint in 1642 met Blaise Pascal. Welk apparaat vond hij uit en wat kon dat apparaat? Welke verbetering aan dat apparaat werd ongeveer dertig jaar later door Gottfried Leibniz aangebracht?
De rekenmachine van Blaise Pasca: Pascaline genoemd. Het was een puur mechanisch apparaat, dat op basis van een systeem met tandwieltjes kon optellen en aftrekken. Hiermee was dit het eerste apparaat dat een typisch menselijk, cognitief vermogen kon imiteren. Ongeveer dertig jaar later werd de Pascaline door Leibniz verbeterd. Hij ontwikkelde een vergelijkbare machine die niet alleen kon optellen en aftrekken, maar ook kon vermenigvuldigen en delen.
Welk motto gaf Leibniz zijn machine en welk visionair idee had hij dat daarbij aansloot?
Hij gaf zijn machine het motto ‘Superieur aan de mens’, en hij had een visionair idee dat daarbij aansloot. Hij stelde zich voor dat rekenmachines op een dag mensen voorbij zouden streven bij het oplossen, niet alleen van rekenkundige problemen, maar ook van problemen rond filosofische onderwerpen als logica en ethiek. Hij dacht dat het daarvoor nodig was een nieuwe, universele filosofische taal te bedenken. Die nieuwe taal zou deels gebaseerd zijn op het feit
dat veel concepten andere ‘insluiten’ in logische hiërarchieën. Andere relaties tussen concepten kunnen juist worden uitgedrukt doordat ze elkaar ‘uitsluiten’. Door te stellen dat insluiten en uitsluiten overeenkomen met optellen en aftrekken, dacht Leibniz dat mensen van allerlei achtergronden deze taal niet alleen konden gebruiken om met elkaar te redeneren, maar ook om oplossingen voor allerlei problemen te berekenen. Leibniz’ droom werd nooit werkelijkheid en na zijn dood volgde de logica een andere koers. De klassieke logica en de wiskunde werden gezien als voorbeelden van een meer algemene symbolische logica.
Deze verbetering van de Pascaline valt echter in het niet bij een veel belangwekkender idee van Gottfried Leibniz, dat de basis zou vormen voor de rekenmethode van alle moderne computers. Welke geniale uitvinding van Leibniz bedoelen we hier?
De rekenmethode van Leibniz, die uiteindelijk in al onze hedendaagse computers verwerkt zou worden, is het binaire systeem. Dit systeem waarbij uitsluitend eentjes en nulletjes gebruikt worden, en elke positie in een cijferreeks dus alleen maar ‘aan’ of ‘uit’ kan staan, zoals ook een lamp alleen maar ‘aan’ of ‘uit’ staat, werd door Leibniz waarschijnlijk min of meer bij toeval uitgewerkt. Hij zag er de verstrekkende gevolgen niet van, of werkte die in elk geval niet uit.
Hij combineerde dit idee van binaire getallen in elk geval niet met zijn mechanische calculator. Toch had hij met deze twee vondsten precies de basisprincipes in handen die het fundament werden van de moderne computer: een mechanisch apparaat dat menselijke, cognitieve processen kon nabootsen en een rekenmethode die het mogelijk zou maken om, na de uitvinding van de elektriciteit, de werking van dat mechaniek om te zetten naar een elektrisch apparaat waarin het ‘aan’ of ‘uit’ staan van stroom de taak van het mechaniek zou kunnen overnemen.
Een volgende stap in de ontwikkeling van de huidige computer vinden we in de ‘difference machine’ en de ‘analytical machine’ van Charles Babbage.
Beschrijf beide machines en leg uit wat zij toevoegden aan de ontwikkeling van de moderne computer
De eerste machine die Babbage bedacht was de ‘difference machine’: een veel complexere variant van de eerdere mechanische rekenmachine die een veelvoud van logische bewerkingen kon uitvoeren op cijfers. De overheid investeerde een hoop geld om het apparaat daadwerkelijk te laten bouwen, maar het ontwikkeltraject werd een totale mislukking. Behalve een aantal kleine prototypen werd de ‘difference machine’ dus nooit gebouwd.
Na deze teleurstelling bedacht Babbage gelukkig een nog veel beter apparaat dat hij de ‘analytical machine’ noemde. Deze machine zou een soort universele probleemoplosser moeten worden die op basis van verschillende ponskaarten een rekenmechaniek kon instrueren over welke berekeningen uitgevoerd moest worden. Deze ‘analytical machine’ was daarmee op papier het eerste programmeerbare rekenapparaat. Belangrijker is echter dat Babbage voor deze machine een ontwerp bedacht dat een blauwdruk was voor de toekomst. Het apparaat bevatte vijf basiscomponenten, te weten:
- een inputsysteem waarlangs het apparaat informatie kon ontvangen
- de ‘mill’ waardoor de berekeningen werden uitgevoerd
- een controlesysteem dat programmeerde welke berekeningen uitgevoerd moesten worden
- een geheugenbank voor de opslag van tussentijdse resultaten
- een outputsysteem waarlangs de resultaten van de berekening werden uitgegeven. Zonder het te weten legde Babbage halverwege de negentiende eeuw met dit idee de centrale architectuur van onze computer vast: input, processor, programmatuur, geheugen en output
Ada Lovelace (1815-1852)
- intellectuele vriendschap met Babbage
- correspondeerden regelmatig over wiskundige kwesties en over zijn plannen voor een analytical machine. Een verslag van een lezing die Babbage over zijn machine gaf, werd door Lovelace van voetnoten voorzien. Dit document is een klassieker geworden, en het eerste systematische werk over de aard en mogelijkheden van een programmeerbare computer. Lovelace voorspelde dat de toepassing van een rekenmachine ooit verder zou gaan dan het domein van de wiskunde. Maar hoewel ze de veelzijdigheid van de machine inzag, had ze ook
oog voor een duidelijke beperking, namelijk dat die nooit zelf iets zou voortbrengen. Deze beperking, bekend als het ▌Lovelace-bezwaar, geldt nog altijd voor computers.
De apparaten van Pascal, Leibniz en Babbage konden rekensommen verwerken, maar waren nog niet in staat om andere dan rekenkundige problemen op te lossen. Dit zou veranderen met een uitvinding die halverwege de negentiende eeuw werd gedaan in Engeland. Welke uitvinding bedoelen we hier en hoe bracht deze uitvinding het ontstaan van de moderne computer weer een stukje dichterbij?
We bedoelen hier de ontwikkeling van de > booleaanse algebra door de Engelsman George Boole. Hij liet zien dat de traditionele rekenkunde een van de vele mogelijkheden was om symbolen systematisch te manipuleren. Hij introduceerde het concept van >symbolische logica en liet zien dat de rekenkunde daar een afgeleide van was. Zo liet hij zien dat niet alleen rekensommen maar ook allerlei andere problemen logisch opgelost konden worden door het strikt systematisch gebruik van een formeel symbolisch systeem. Hiermee verwezenlijkte hij een project waar ook Leibniz en Babbage hadden geworsteld: het integreren van de wiskunde met de logica, zodat rekenmachines ook problemen buiten de wiskunde zouden kunnen oplossen.
Met het idee van een rekenmachine, een binaire taal waarin die machine kon rekenen, een globale architectuur van een denkend apparaat en boleaanse algebra om logische problemen systematisch op te lossen, lijkt een computer slechts nog een kwestie van technische realisatie. De eerste stappen van die technische realisatie werden gezet door Alan Turing en Claude Shannon voorafgaand aan en tijdens de Tweede Wereldoorlog.
Op welke manier brachten Turing en Shannon de realisatie van de moderne computer een stapje dichterbij?
Om te beginnen bedacht Turing in concept een machine die booleaanse logica stap voor stap kon inlezen en verwerken. Zo’n machine zou bestaan uit een ‘head’ - een optisch apparaat - dat één voor één de logische symbolen van een ‘tape’ kon lezen. Na het lezen kon de ‘head’ de ‘tape’ bewerken of ongemoeid laten, naar het volgende of vorige logische symbool op de ‘tape’ gaan, en de interne staat van de ‘head’ wijzigen of ongemoeid laten. Met dit betrekkelijke eenvoudig ontwerp bedacht Turing een machine die in essentie hetzelfde kon als de enorme ‘analytical machine’ die Babbage had bedacht. Turingmachine
Daarnaast werkte Shannon een binair systeem uit met elektrische schakelaars die alleen maar ‘aan’ of ‘uit’ konden staan. De staat van deze schakelaars kon zo een 1 of 0 representeren. Wanneer zulke schakelaars met elkaar verbonden waren in een netwerk, konden alle logisch problemen die gebaseerd waren op enkelvoudige keuzes - zoals ‘waar’ of ‘niet waar’ en ‘A’ of ‘B’ - automatisch verwerkt worden. Gedurende de Tweede Wereldoorlog waren Turing en Shannon gezamenlijk betrokken bij de ontwikkeling van complexe apparatuur die gebaseerd was op deze principes en die gebruikt werd om gecodeerde berichten van het naziregime te decoderen.
Descartes had er een duidelijke theorie over: dieren moeten gezien worden als rondlopende machientjes, en kunnen derhalve volledig natuurwetenschappelijk verklaard worden. De mens is echter de grote uitzondering. De mens bezit een unieke geest die kwalitatief anders is dan het lichamelijke brein. De wereld van de ervaringen en het subjectieve is niet te vangen met mechanica, of toch wel? Deze opdracht gaat over de vraag of de menselijke geest in principe ooit volledig te simuleren is met computers, ofwel over de vraag of kunstmatige intelligentie (artificial intelligence, afgekort AI) de menselijke intelligentie kan evenaren.
Centraal in deze discussie staat het verschil tussen Weak AI en Strong AI. Leg dit verschil uit.
Het verschil tussen Weak AI en Strong AI wijst op een fundamenteel onderscheid in de discussie over de vraag of kunstmatige intelligentie de menselijke geest ooit volledig kan benaderen. Weak AI verwijst naar het standpunt dat computers als model voor menselijke denkprocessen kunnen dienen, maar dat computers allerlei andere aspecten van de menselijke geest, zoals bewustzijn - het bewust gewaarworden van het bestaan - en intentionaliteit - beseffen dat gedachten en gevoelens betrekking hebben op de wereld en de mensen daarin - niet kunnen nabootsen.
Aanhangers van Strong AI daarentegen veronderstellen dat er geen categorisch verschil is tussen de menselijke psyche en kunstmatige intelligentie. Dit verschil is in hun ogen slechts kwantitatief, en dus is het een kwestie van tijd voordat een computer of robot wordt ontwikkeld waarvan de kunstmatige intelligentie complex genoeg is om de menselijke geest volledig te kunnen benaderen; en dus ook om bewust te zijn, om gevoelens en bedoelingen te hebben.
Een van de eersten die zich over dit thema uitsprak was een leerling van Charles Babbage, Ada Lovelace. Haar opvatting is de geschiedenis in gegaan als de Lovelace objection. Hoe luidt deze Lovelace objection, en bevindt deze zich in het kamp van de Weak AI of de Strong AI?
Ada Lovelace stelde in wat bekend staat als de Lovelace objection, dat machines nooit voorbij hun voorgeprogrammeerde beperkingen zullen komen. Een computer kan alles wat de mens hem laat doen, maar zal daar nooit bovenuit groeien. Een computer volgt namelijk de regels die de mens aan de computer oplegt. Buiten die regels opereren kan een computer niet. Echte creativiteit, waarvoor het nodig is om die regels te doorbreken, kan een computer dus niet vertonen.
In welk kamp Ada Lovelace zich hiermee bevindt, is niet heel evident. Zij is duidelijk behoudend, door te stellen dat een computer nooit de menselijke creativiteit kan bezitten. Dat plaatst haar duidelijk in het kamp van de Weak AI. Tegelijkertijd sluit zij met deze Lovelace objection niet uit dat computers ooit zullen beschikken over bewustzijn of gevoelens of bedoelingen. Mochten wij ooit uitvinden hoe we zulke zaken moeten programmeren, dan behoren zij tot de mogelijkheden; maar creativiteit is uitgesloten, volgens Ada Lovelace.
Ook Alan Turing had hierover een uitgesproken opvatting, en dan met name over de vraag in hoeverre we mogen veronderstellen dat een machine daadwerkelijk ‘denkt’. Hij formuleerde hiervoor een gedachte-experiment dat we nu de turingtest noemen. Wat is de turingtest, en is deze test een argument voor Weak AI of Strong AI?
De oorspronkelijke vorm van deze turingtest is in wezen een spel waarbij observatoren vragen mogen stellen aan een responsieve entiteit in een afgescheiden kamer. Met behulp van deze vragen moeten zij proberen te achterhalen of die entiteit een intelligente machine is, of een echt mens. Zie het als een whatsapp-gesprek waarbij de antwoorden niet worden gegeven door een persoon, maar door een computer. De vraag is nu of er een computer denkbaar is die in deze situatie antwoorden geeft waardoor diens intelligentie niet van die van een mens te onderscheiden is. Geheel in lijn met de behavioristische traditie, herformuleerde Turing de vraag of machines kunnen denken dus in termen van observeergedrag. Als het gedrag van een machine niet te onderscheiden is van het gedrag van een intelligent mens, mogen we stellen dat de machine denkt.
Of Turing hiermee kiest voor Weak AI of Strong AI is moeilijk te beantwoorden. Hij lijkt behoorlijk ver te gaan, en te stellen dat, volgens de behavioristische uitgangspunten, een machine die gelijk is aan de mens tot de denkbare mogelijkheden behoort. Dat lijkt hem in het Strong AI-kamp te plaatsen. Tegelijkertijd is zijn behavioristische uitgangspunt het knelpunt, want kenmerkend voor Strong AI zijn zaken als bewustzijn, gevoelens en bedoelingen, en die worden door het behaviorisme nu juist buitenspel gezet. Eigenlijk is in het behaviorisme zelfs bij de mens geen sprake van Strong AI. Of Turing dat ook echt zelf vond, is de vraag, want hij was vanuit filosofisch oogpunt zeer geïnteresseerd in de interne staat van machines, maar de turingtest zelf past toch het beste in het Weak AI-kamp.
A Mathematical Theory of Communication
Turing
een klassieker werd en de aanzet vormde tot de ▌informatietheorie, volgens welke elke communicatie en elk teken kan worden geanalyseerd in termen van een ▌bit, de hoeveelheid informatie die kan worden overgedragen door het openen of sluiten van een binaire schakelaar.
▌Allen Newell (1927-1992) en ▌Herbert Simon (1916-2001:
- de eerste gebruikers van nieuwe technologie om menselijk redeneren te stimuleren
- Logic Theorist (LT): programma dat met omgekeerd redeneren bewijs kon leveren voor een aantal theorema’s van de symbolische logica. maar had beperkingen in vergelijking met een menselijke denker, werkt alleen met bepaalde cominaties
- kunstmatige intelligentie moet gebruik maken van heuristiek, techniek om zoekruimte van computer inperken
- General Problem Solver (GPS), Op basis van de manieren waarop mensen
problemen oplossen, ontwierpen ze GPS zodanig dat het ▌middel-doelanalyse als heuristische methode kon gebruiken. Toen het klaar was, slaagde GPS erin allerlei problemen op te lossen, zoals schaakstrategieën en logische puzzels, met een schijnbaar menselijke efficiëntie. Hoewel niet foutloos, voorzag GPS in een vereenvoudigd, maar mogelijk valide model van de menselijke intelligentie.
TOTE-unit en de invloed daarvan op het behaviorisme
George Miller, Eugene Galanter en Karl Pribram waren behavioristisch opgeleid, maar onder de indruk van de potentie van het AI-programma en teleurgesteld dat het stimulus-responsconcept van het behaviorisme er geen verklaring voor kon geven. Geïnspireerd door de middel-doelstrategie schreven ze ▌Plans and the Structure of Behavior, een boek dat de ▌TOTE-unit voorstelde
als centraal concept voor de analyse van denken en redeneren. De letters staan voor test, operate, test, exit, fasen die meestal doorlopen worden bij het oplossen van problemen.
De drie psychologen kwamen tot de verrassende conclusie dat ze als rasechte behavioristen nu theoretiseerden over interne en slechts subjectief waarneembare processen. Ze merkten echter ook op dat TOTE-activiteit objectief beschreven kon worden, alvorens in een computerprogramma omgezet te worden. In zekere zin observeerden ze daarom de processen
meteen na de onwaarneembare innerlijke toestand van probleemoplossing. Ze stelden dat computers psychologen voorzien van de gereedschappen om op grote schaal processen die ze willen onderzoeken uit te voeren of te simuleren.
Welk vraagstuk riep de publicatie van Plans and the structure of behavior op?
De publicatie van Plans and the Structure of Behavior was een belangrijke en symbolische gebeurtenis, die de transitie van de Amerikaanse psychologie markeerde van een sterk behavioristische oriëntatie naar een focus op innerlijke, cognitieve processen. De simulatie van menselijk redeneren riep echter ook filosofische vragen op, namelijk of de programma’s meer dan
simulaties waren en of ze als gelijkwaardig aan menselijk denken beschouwd konden worden.
Het behaviorisme was in Amerika dominant, maar toen wetenschappers intelligente programma’s begonnen te ontwikkelen, namen psychologen daar kennis van. Dat geldt ook voor
de drie psychologen achter de TOTE-unit, die zichzelf voorzichtig beschreven als ‘subjectieve
behavioristen’. Eén van hen borduurde hierop voort en werd de leider van een nieuwe, cognitieve benadering van de psychologie.
Welke nieuwe soorten verwerking werden er ontworpen voor het programmering?
programma’s, zoals LT en GPS, maakten gebruikt van ▌seriële (symbolische) verwerking, maar daarna werd een nieuwe strategie ontwikkeld onder de naam ▌connectionistische verwerking, ook wel parallelle distributie genoemd. Hierbij worden patronen in plaats van symbolen opgespoord en opgeslagen, waardoor programma’s een veel grotere mogelijkheid hebben te
leren van ervaringen, en hun reactie daarop kunnen aanpassen.