AI Chapter 3 Reinforcing Human Agency and Oversight in AI Flashcards

1
Q

Wat is de rol van menselijke autonomie in AI-systemen?

A

Menselijke autonomie verwijst naar het vermogen van mensen om zelf keuzes te maken en controle te behouden over AI-systemen, in plaats van blindelings afhankelijk te zijn van hun beslissingen

Voorbeeldzin: Mensen kunnen besluiten om de aanbevelingen van een AI-systeem te negeren en hun eigen keuzes te maken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wat is het belang van feedbackloops in mens-AI-interactie?

A

Feedbackloops stellen mensen in staat om AI-systemen te leren van hun fouten, waardoor hun prestaties en betrouwbaarheid worden verbeterd

Voorbeeldzin: Door regelmatige feedback kunnen AI-systemen hun algoritmen aanpassen om nauwkeurigere resultaten te produceren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wat betekent over-reliance op AI?

A

Over-reliance is wanneer mensen te veel vertrouwen op AI-systemen, zelfs als deze systemen foutieve beslissingen nemen

Voorbeeldzin: Over-reliance kan leiden tot verlies van menselijke controle over besluitvorming en acties.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wat zijn de gevolgen van over-reliance op AI in de medische sector?

A

Artsen kunnen te afhankelijk worden van AI-diagnoses, waardoor ze hun eigen expertise en beoordelingsvermogen niet langer vertrouwen

Voorbeeldzin: Over-reliance op AI in de medische sector kan leiden tot vertragingen in de juiste diagnose en behandeling van patiënten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Waarom is het belangrijk om bewustzijn te creëren over over-reliance?

A

Het bewustzijn helpt gebruikers kritischer te zijn bij het interpreteren van AI-beslissingen en voorkomt dat ze blindelings de AI volgen

Voorbeeldzin: Bewustzijn over over-reliance kan gebruikers helpen om de grenzen van AI te begrijpen en hun eigen oordeel te behouden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Hoe kan over-reliance worden verminderd?

A

Door het bieden van transparante verklaringen en het stimuleren van menselijke controle en besluitvorming

Voorbeeldzin: Het vergroten van transparantie in AI-systemen kan gebruikers helpen om de beslissingen van het systeem beter te begrijpen en te vertrouwen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wat is een voorbeeld van over-reliance in AI-gestuurde navigatiesystemen?

A

Mensen volgen GPS-routes blindelings, zelfs als deze hen naar gevaarlijke of verkeerde locaties leiden

Voorbeeldzin: Over-reliance op GPS-navigatie kan leiden tot onbedoelde omwegen en gevaarlijke situaties.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Hoe kan over-reliance de besluitvorming in de financiële sector beïnvloeden?

A

Het kan leiden tot ongecontroleerde handel op basis van AI, wat marktschommelingen en financiële instabiliteit kan veroorzaken

Voorbeeldzin: Over-reliance op AI in de financiële sector kan leiden tot onvoorspelbare marktreacties en risicovolle investeringen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wat betekent onder-reliance bij het gebruik van AI?

A

Onder-reliance treedt op wanneer mensen de suggesties van AI-systemen negeren, zelfs wanneer ze correct zijn

Voorbeeldzin: Onder-reliance kan leiden tot gemiste kansen en inefficiënte besluitvorming in situaties waar AI waardevolle inzichten kan bieden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Hoe kunnen menselijke biases bijdragen aan over-reliance op AI?

A

Mensen kunnen veronderstellen dat AI altijd objectief en correct is, wat kan leiden tot blind vertrouwen zonder kritisch denken

Voorbeeldzin: Vooroordelen over de betrouwbaarheid van AI kunnen leiden tot een ongegrond vertrouwen in de beslissingen van AI-systemen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wat is de impact van AI-explainability op over-reliance?

A

Te eenvoudige of complexe verklaringen van AI-beslissingen kunnen leiden tot blind vertrouwen of volledige afwijzing van de AI-uitkomst

Voorbeeldzin: Onvoldoende uitleg over AI-beslissingen kan gebruikers in verwarring brengen of hun vertrouwen in de AI ondermijnen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hoe beïnvloedt de opkomst van autonome systemen de menselijke autonomie?

A

Autonome systemen verminderen vaak menselijke autonomie door beslissingen te nemen zonder menselijke tussenkomst, wat kan leiden tot over-reliance en verlies van kritische denkvaardigheden

Voorbeeldzin: De opkomst van autonome voertuigen kan leiden tot afnemende vaardigheden en vertrouwen van bestuurders in hun eigen rijvaardigheden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hoe kan training de risico’s van over-reliance op AI verminderen?

A

Training stelt gebruikers in staat om de beperkingen van AI te begrijpen en ontwikkelt hun vermogen om kritische beoordelingen te maken

Voorbeeldzin: Door regelmatige training kunnen gebruikers hun begrip van AI verbeteren en hun vermogen om de output van AI-systemen te evalueren versterken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Hoe beïnvloeden sociale AI-systemen menselijke emoties en gedrag?

A

Ze kunnen emoties zoals empathie of vertrouwen opwekken, wat kan leiden tot sterke emotionele bindingen

Voorbeeldzin: Sociale AI-systemen kunnen gebruikers een gevoel van verbondenheid en vertrouwen geven, wat hun interactie met het systeem kan versterken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wat is de rol van menselijke binding in de interactie met sociale AI-systemen?

A

Menselijke binding kan leiden tot overmatige afhankelijkheid en manipulatie, wat ethische problemen veroorzaakt

Voorbeeldzin: Sterke emotionele binding met een sociale AI kan leiden tot beïnvloeding van beslissingen en gedrag zonder kritische evaluatie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Hoe kunnen AI-systemen emotionele manipulatie vermijden?

A

Door transparantie en duidelijke communicatie over de niet-menselijke aard van het systeem

Voorbeeldzin: AI-systemen moeten gebruikers informeren over de beperkingen en doelen van het systeem om misbruik van emotionele manipulatie te voorkomen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wat zijn de risico’s van gehechtheid aan AI-systemen?

A

Mensen kunnen emotioneel afhankelijk

Voorbeeldzin: Overmatige gehechtheid aan AI-systemen kan leiden tot sociaal isolement en verminderde menselijke interactie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

matige afhankelijkheid en manipulatie, wat ethische problemen veroorzaakt

A

Sociale Interactie en Mens-AI Binding
Hoe kunnen AI-systemen emotionele manipulatie vermijden?;Door transparantie en duidelijke communicatie over de niet-menselijke aard van het systeem

Voorbeeldzin: AI-systemen moeten transparant zijn over hun besluitvormingsproces om emotionele manipulatie te voorkomen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wat zijn de risico’s van gehechtheid aan AI-systemen?

A

Sociale Interactie en Mens-AI Binding
Mensen kunnen emotioneel afhankelijk worden, wat leidt tot een verminderd vermogen om rationele beslissingen te nemen

Voorbeeldzin: Het ontwikkelen van een sterke emotionele band met AI-systemen kan leiden tot irrationele besluitvorming.

20
Q

Hoe kan menselijke supervisie de negatieve effecten van sociale AI verminderen?

A

Sociale Interactie en Mens-AI Binding
Door proactief toezicht en interventies wanneer gebruikers tekenen van overmatige afhankelijkheid vertonen

Voorbeeldzin: Menselijke supervisie kan helpen bij het voorkomen van overmatige afhankelijkheid van AI-systemen.

21
Q

Wat is de impact van AI’s ‘black-box’ gedrag op menselijke autonomie?

A

Sociale Interactie en Mens-AI Binding
Gebrek aan inzicht in de beslissingen van AI kan leiden tot een verminderd gevoel van controle en autonomie

Voorbeeldzin: Het ondoorzichtige gedrag van AI kan leiden tot een gevoel van verlies van controle bij mensen.

22
Q

Hoe kunnen AI-systemen menselijke autonomie versterken in plaats van verminderen?

A

Sociale Interactie en Mens-AI Binding
Door de gebruiker controle te geven over de beslissingen en acties van de AI, en door uitlegbare AI te bieden

Voorbeeldzin: AI-systemen kunnen menselijke autonomie versterken door transparantie en controle-opties te bieden aan gebruikers.

23
Q

Waarom is het belangrijk dat mensen weten wanneer ze met een AI-systeem omgaan?

A

Sociale Interactie en Mens-AI Binding
Het zorgt voor transparantie en helpt mensen beter te begrijpen hoe ze de AI-beslissingen kunnen interpreteren

Voorbeeldzin: Bewustzijn van de interactie met AI-systemen kan bijdragen aan een beter begrip van de besluitvorming.

24
Q

Hoe kan menselijke samenwerking met AI worden geoptimaliseerd?

A

Sociale Interactie en Mens-AI Binding
Door duidelijke rolverdelingen en taken tussen de mens en het AI-systeem te definiëren

Voorbeeldzin: Optimalisatie van menselijke samenwerking met AI vereist heldere afspraken en verantwoordelijkheden.

25
Q

Wat wordt bedoeld met “mens-in-de-lus” bij AI-systemen?

A

Begrijpen van Mens-AI Interactie
Dit betekent dat de mens actief betrokken is bij de besluitvorming van het AI-systeem, waarbij de mens de uiteindelijke beslissing neemt

Voorbeeldzin: De ‘mens-in-de-lus’ aanpak benadrukt de actieve rol van de mens in besluitvormingsprocessen van AI.

26
Q

Wat zijn de ethische uitdagingen van sociale interactie met AI?

A

Sociale Interactie en Mens-AI Binding
Het risico van manipulatie, afhankelijkheid, en verlies van menselijke autonomie zijn grote ethische zorgen

Voorbeeldzin: Sociale interactie met AI brengt ethische uitdagingen met zich mee, zoals het risico van manipulatie en afhankelijkheid.

27
Q

Waarom is technische robuustheid belangrijk voor AI-systemen?

A

Technische Robuustheid en Veiligheid
Het waarborgt dat AI-systemen betrouwbaar, veilig en bestand zijn tegen aanvallen of fouten

Voorbeeldzin: Technische robuustheid is van cruciaal belang om de betrouwbaarheid en veiligheid van AI-systemen te waarborgen.

28
Q

Hoe kunnen AI-systemen worden getest op betrouwbaarheid?

A

Technische Robuustheid en Veiligheid
Door ze te testen in sandbox-omgevingen die echte wereldomstandigheden simuleren

Voorbeeldzin: Betrouwbaarheidstests in realistische omgevingen helpen bij het waarborgen van de goede werking van AI-systemen.

29
Q

Wat is een ‘stopknop’ in de context van AI?

A

Technische Robuustheid en Veiligheid
Een mechanisme waarmee menselijke operators een AI-systeem onmiddellijk kunnen stoppen wanneer het ongewenst gedrag vertoont

Voorbeeldzin: Het hebben van een ‘stopknop’ is essentieel voor het beheersen van ongewenst gedrag van AI-systemen.

30
Q

Hoe kunnen AI-systemen worden beveiligd tegen cyberaanvallen?

A

Technische Robuustheid en Veiligheid
Door robuuste beveiligingsprotocollen te implementeren, zoals encryptie en inbraakdetectie

Voorbeeldzin: Effectieve beveiligingsprotocollen zijn nodig om AI-systemen te beschermen tegen cyberaanvallen.

31
Q

Wat is de “mens-op-de-lus” aanpak in AI-systemen?

A

Begrijpen van Mens-AI Interactie
Dit houdt in dat de mens toezicht houdt op een autonoom AI-systeem, waarbij de menselijke operator ingrijpt wanneer dat nodig is

Voorbeeldzin: Bij de ‘mens-op-de-lus’ aanpak heeft de mens controle over de beslissingen van een autonoom AI-systeem.

32
Q

Hoe draagt “mens-uit-de-lus” bij aan het verminderen van menselijke controle over AI?

A

Begrijpen van Mens-AI Interactie
In deze situatie werkt het AI-systeem volledig autonoom zonder enige menselijke tussenkomst, wat het risico op verlies van menselijke controle vergroot

Voorbeeldzin: De ‘mens-uit-de-lus’ benadering kan leiden tot verminderde menselijke controle over AI-systemen.

33
Q

Waarom is menselijke betrokkenheid belangrijk bij zelflerende AI-systemen?

A

Begrijpen van Mens-AI Interactie
Menselijke betrokkenheid zorgt voor ethische controle, vermindert de kans op onbedoelde gevolgen en zorgt voor naleving van de normen van de samenleving

Voorbeeldzin: Menselijke betrokkenheid is essentieel voor het waarborgen van ethische normen bij zelflerende AI-systemen.

34
Q

Hoe draagt menselijke supervisie bij aan ethische AI-toepassingen?

A

Begrijpen van Mens-AI Interactie
Het stelt mensen in staat om AI-systemen te monitoren, corrigeren en stoppen wanneer ze afwijken van de ethische normen

Voorbeeldzin: Menselijke supervisie speelt een cruciale rol bij het handhaven van ethische standaarden in AI-toepassingen.

35
Q

elde gevolgen en zorgt voor naleving van de normen van de samenleving

A

Het stelt mensen in staat om AI-systemen te monitoren, corrigeren en stoppen wanneer ze afwijken van de ethische normen

Voorbeeldzin: De menselijke supervisie zorgt ervoor dat AI-toepassingen in overeenstemming blijven met de normen van de samenleving.

36
Q

Wat zijn de risico’s van volledige automatisering zonder menselijke supervisie?

A

Volledige automatisering kan leiden tot verkeerde beslissingen, gebrek aan menselijke empathie en risico’s voor veiligheid en ethiek

Voorbeeldzin: Zonder menselijke supervisie bestaat het risico dat AI-systemen ethische normen schenden en onveilige beslissingen nemen.

37
Q

Hoe kan de “mens-in-command” aanpak worden toegepast in kritieke sectoren zoals de gezondheidszorg?

A

In de gezondheidszorg kan de “mens-in-command” aanpak ervoor zorgen dat AI-systemen alleen opereren onder strikte supervisie van menselijke experts, waardoor onjuiste diagnoses of behandelingen worden voorkomen

Voorbeeldzin: Door de ‘mens-in-command’ aanpak toe te passen in de gezondheidszorg, kan de veiligheid en kwaliteit van de zorg worden verbeterd.

38
Q

Wat houdt “Human-in-the-loop” in?

A

Het betekent dat een mens actief deelneemt aan het beslissingsproces van een Al-systeem en de uiteindelijke beslissingen neemt.

Voorbeeldzin: Een Al kan een diagnose voorstellen, maar een arts neemt de uiteindelijke beslissing.

39
Q

Wat is een voorbeeld van “Human-on-the-loop” in een medische context?

A

Een Al kan een diagnose voorstellen, maar een arts neemt de uiteindelijke beslissing.

40
Q

Hoe verschilt “Human-on-the-loop” van “Human-in-the-loop”?

A

Bij “Human-on-the-loop” opereert de Al autonoom, maar een mens houdt toezicht en kan indien nodig ingrijpen.

41
Q

In welke situaties is “Human-on-the-loop” geschikt?

A

Voor toepassingen waar snelle en complexe berekeningen nodig zijn, zoals autonome voertuigen of Al die vitale functies van patiënten bewaakt.

42
Q

Wat betekent “Human-in-command”?

A

De Al voert alleen acties uit die expliciet door een mens worden goedgekeurd, en alle belangrijke beslissingen worden door een mens genomen.

43
Q

Wat is een voorbeeld van een “Human-in-command” scenario?

A

Een Al die een chirurg ondersteunt tijdens een operatie, maar geen acties autonoom uitvoert zonder toestemming van de chirurg.

44
Q

Wat is een belangrijk kenmerk van een “Human-out-of-the-loop” systeem?

A

Het systeem opereert volledig autonoom zonder menselijke tussenkomst of toezicht.

45
Q

Wat is een potentieel risico van “Human-out-of-the-loop” systemen?

A

Gebrek aan verantwoordelijkheid en controle, vooral als het systeem onverwacht gedrag vertoont.

46
Q

In welke toepassingen zou “Human-in-command” nuttig zijn?

A

In toepassingen met hoge risico’s, zoals nucleaire energiebeheer, luchtvaart, of complexe chirurgische procedures.

47
Q

Welke van de volgende modellen biedt de hoogste mate van menselijke controle over een Al-systeem: “Human-in-the-loop”, “Human-on-the-loop” of “Human-out-of-the-loop”?

A

“Human-in-the-loop” biedt de hoogste mate van menselijke controle, omdat mensen actief deelnemen aan elke beslissing.