AI Chapter 3 Reinforcing Human Agency and Oversight in AI Flashcards

1
Q

Wat is de rol van menselijke autonomie in AI-systemen?

A

Menselijke autonomie verwijst naar het vermogen van mensen om zelf keuzes te maken en controle te behouden over AI-systemen, in plaats van blindelings afhankelijk te zijn van hun beslissingen

Voorbeeldzin: Mensen kunnen besluiten om de aanbevelingen van een AI-systeem te negeren en hun eigen keuzes te maken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wat is het belang van feedbackloops in mens-AI-interactie?

A

Feedbackloops stellen mensen in staat om AI-systemen te leren van hun fouten, waardoor hun prestaties en betrouwbaarheid worden verbeterd

Voorbeeldzin: Door regelmatige feedback kunnen AI-systemen hun algoritmen aanpassen om nauwkeurigere resultaten te produceren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wat betekent over-reliance op AI?

A

Over-reliance is wanneer mensen te veel vertrouwen op AI-systemen, zelfs als deze systemen foutieve beslissingen nemen

Voorbeeldzin: Over-reliance kan leiden tot verlies van menselijke controle over besluitvorming en acties.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wat zijn de gevolgen van over-reliance op AI in de medische sector?

A

Artsen kunnen te afhankelijk worden van AI-diagnoses, waardoor ze hun eigen expertise en beoordelingsvermogen niet langer vertrouwen

Voorbeeldzin: Over-reliance op AI in de medische sector kan leiden tot vertragingen in de juiste diagnose en behandeling van patiënten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Waarom is het belangrijk om bewustzijn te creëren over over-reliance?

A

Het bewustzijn helpt gebruikers kritischer te zijn bij het interpreteren van AI-beslissingen en voorkomt dat ze blindelings de AI volgen

Voorbeeldzin: Bewustzijn over over-reliance kan gebruikers helpen om de grenzen van AI te begrijpen en hun eigen oordeel te behouden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Hoe kan over-reliance worden verminderd?

A

Door het bieden van transparante verklaringen en het stimuleren van menselijke controle en besluitvorming

Voorbeeldzin: Het vergroten van transparantie in AI-systemen kan gebruikers helpen om de beslissingen van het systeem beter te begrijpen en te vertrouwen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wat is een voorbeeld van over-reliance in AI-gestuurde navigatiesystemen?

A

Mensen volgen GPS-routes blindelings, zelfs als deze hen naar gevaarlijke of verkeerde locaties leiden

Voorbeeldzin: Over-reliance op GPS-navigatie kan leiden tot onbedoelde omwegen en gevaarlijke situaties.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Hoe kan over-reliance de besluitvorming in de financiële sector beïnvloeden?

A

Het kan leiden tot ongecontroleerde handel op basis van AI, wat marktschommelingen en financiële instabiliteit kan veroorzaken

Voorbeeldzin: Over-reliance op AI in de financiële sector kan leiden tot onvoorspelbare marktreacties en risicovolle investeringen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wat betekent onder-reliance bij het gebruik van AI?

A

Onder-reliance treedt op wanneer mensen de suggesties van AI-systemen negeren, zelfs wanneer ze correct zijn

Voorbeeldzin: Onder-reliance kan leiden tot gemiste kansen en inefficiënte besluitvorming in situaties waar AI waardevolle inzichten kan bieden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Hoe kunnen menselijke biases bijdragen aan over-reliance op AI?

A

Mensen kunnen veronderstellen dat AI altijd objectief en correct is, wat kan leiden tot blind vertrouwen zonder kritisch denken

Voorbeeldzin: Vooroordelen over de betrouwbaarheid van AI kunnen leiden tot een ongegrond vertrouwen in de beslissingen van AI-systemen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wat is de impact van AI-explainability op over-reliance?

A

Te eenvoudige of complexe verklaringen van AI-beslissingen kunnen leiden tot blind vertrouwen of volledige afwijzing van de AI-uitkomst

Voorbeeldzin: Onvoldoende uitleg over AI-beslissingen kan gebruikers in verwarring brengen of hun vertrouwen in de AI ondermijnen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hoe beïnvloedt de opkomst van autonome systemen de menselijke autonomie?

A

Autonome systemen verminderen vaak menselijke autonomie door beslissingen te nemen zonder menselijke tussenkomst, wat kan leiden tot over-reliance en verlies van kritische denkvaardigheden

Voorbeeldzin: De opkomst van autonome voertuigen kan leiden tot afnemende vaardigheden en vertrouwen van bestuurders in hun eigen rijvaardigheden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hoe kan training de risico’s van over-reliance op AI verminderen?

A

Training stelt gebruikers in staat om de beperkingen van AI te begrijpen en ontwikkelt hun vermogen om kritische beoordelingen te maken

Voorbeeldzin: Door regelmatige training kunnen gebruikers hun begrip van AI verbeteren en hun vermogen om de output van AI-systemen te evalueren versterken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Hoe beïnvloeden sociale AI-systemen menselijke emoties en gedrag?

A

Ze kunnen emoties zoals empathie of vertrouwen opwekken, wat kan leiden tot sterke emotionele bindingen

Voorbeeldzin: Sociale AI-systemen kunnen gebruikers een gevoel van verbondenheid en vertrouwen geven, wat hun interactie met het systeem kan versterken.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wat is de rol van menselijke binding in de interactie met sociale AI-systemen?

A

Menselijke binding kan leiden tot overmatige afhankelijkheid en manipulatie, wat ethische problemen veroorzaakt

Voorbeeldzin: Sterke emotionele binding met een sociale AI kan leiden tot beïnvloeding van beslissingen en gedrag zonder kritische evaluatie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Hoe kunnen AI-systemen emotionele manipulatie vermijden?

A

Door transparantie en duidelijke communicatie over de niet-menselijke aard van het systeem

Voorbeeldzin: AI-systemen moeten gebruikers informeren over de beperkingen en doelen van het systeem om misbruik van emotionele manipulatie te voorkomen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wat zijn de risico’s van gehechtheid aan AI-systemen?

A

Mensen kunnen emotioneel afhankelijk

Voorbeeldzin: Overmatige gehechtheid aan AI-systemen kan leiden tot sociaal isolement en verminderde menselijke interactie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

matige afhankelijkheid en manipulatie, wat ethische problemen veroorzaakt

A

Sociale Interactie en Mens-AI Binding
Hoe kunnen AI-systemen emotionele manipulatie vermijden?;Door transparantie en duidelijke communicatie over de niet-menselijke aard van het systeem

Voorbeeldzin: AI-systemen moeten transparant zijn over hun besluitvormingsproces om emotionele manipulatie te voorkomen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wat zijn de risico’s van gehechtheid aan AI-systemen?

A

Sociale Interactie en Mens-AI Binding
Mensen kunnen emotioneel afhankelijk worden, wat leidt tot een verminderd vermogen om rationele beslissingen te nemen

Voorbeeldzin: Het ontwikkelen van een sterke emotionele band met AI-systemen kan leiden tot irrationele besluitvorming.

20
Q

Hoe kan menselijke supervisie de negatieve effecten van sociale AI verminderen?

A

Sociale Interactie en Mens-AI Binding
Door proactief toezicht en interventies wanneer gebruikers tekenen van overmatige afhankelijkheid vertonen

Voorbeeldzin: Menselijke supervisie kan helpen bij het voorkomen van overmatige afhankelijkheid van AI-systemen.

21
Q

Wat is de impact van AI’s ‘black-box’ gedrag op menselijke autonomie?

A

Sociale Interactie en Mens-AI Binding
Gebrek aan inzicht in de beslissingen van AI kan leiden tot een verminderd gevoel van controle en autonomie

Voorbeeldzin: Het ondoorzichtige gedrag van AI kan leiden tot een gevoel van verlies van controle bij mensen.

22
Q

Hoe kunnen AI-systemen menselijke autonomie versterken in plaats van verminderen?

A

Sociale Interactie en Mens-AI Binding
Door de gebruiker controle te geven over de beslissingen en acties van de AI, en door uitlegbare AI te bieden

Voorbeeldzin: AI-systemen kunnen menselijke autonomie versterken door transparantie en controle-opties te bieden aan gebruikers.

23
Q

Waarom is het belangrijk dat mensen weten wanneer ze met een AI-systeem omgaan?

A

Sociale Interactie en Mens-AI Binding
Het zorgt voor transparantie en helpt mensen beter te begrijpen hoe ze de AI-beslissingen kunnen interpreteren

Voorbeeldzin: Bewustzijn van de interactie met AI-systemen kan bijdragen aan een beter begrip van de besluitvorming.

24
Q

Hoe kan menselijke samenwerking met AI worden geoptimaliseerd?

A

Sociale Interactie en Mens-AI Binding
Door duidelijke rolverdelingen en taken tussen de mens en het AI-systeem te definiëren

Voorbeeldzin: Optimalisatie van menselijke samenwerking met AI vereist heldere afspraken en verantwoordelijkheden.

25
Wat wordt bedoeld met “mens-in-de-lus” bij AI-systemen?
Begrijpen van Mens-AI Interactie Dit betekent dat de mens actief betrokken is bij de besluitvorming van het AI-systeem, waarbij de mens de uiteindelijke beslissing neemt ## Footnote Voorbeeldzin: De 'mens-in-de-lus' aanpak benadrukt de actieve rol van de mens in besluitvormingsprocessen van AI.
26
Wat zijn de ethische uitdagingen van sociale interactie met AI?
Sociale Interactie en Mens-AI Binding Het risico van manipulatie, afhankelijkheid, en verlies van menselijke autonomie zijn grote ethische zorgen ## Footnote Voorbeeldzin: Sociale interactie met AI brengt ethische uitdagingen met zich mee, zoals het risico van manipulatie en afhankelijkheid.
27
Waarom is technische robuustheid belangrijk voor AI-systemen?
Technische Robuustheid en Veiligheid Het waarborgt dat AI-systemen betrouwbaar, veilig en bestand zijn tegen aanvallen of fouten ## Footnote Voorbeeldzin: Technische robuustheid is van cruciaal belang om de betrouwbaarheid en veiligheid van AI-systemen te waarborgen.
28
Hoe kunnen AI-systemen worden getest op betrouwbaarheid?
Technische Robuustheid en Veiligheid Door ze te testen in sandbox-omgevingen die echte wereldomstandigheden simuleren ## Footnote Voorbeeldzin: Betrouwbaarheidstests in realistische omgevingen helpen bij het waarborgen van de goede werking van AI-systemen.
29
Wat is een ‘stopknop’ in de context van AI?
Technische Robuustheid en Veiligheid Een mechanisme waarmee menselijke operators een AI-systeem onmiddellijk kunnen stoppen wanneer het ongewenst gedrag vertoont ## Footnote Voorbeeldzin: Het hebben van een 'stopknop' is essentieel voor het beheersen van ongewenst gedrag van AI-systemen.
30
Hoe kunnen AI-systemen worden beveiligd tegen cyberaanvallen?
Technische Robuustheid en Veiligheid Door robuuste beveiligingsprotocollen te implementeren, zoals encryptie en inbraakdetectie ## Footnote Voorbeeldzin: Effectieve beveiligingsprotocollen zijn nodig om AI-systemen te beschermen tegen cyberaanvallen.
31
Wat is de “mens-op-de-lus” aanpak in AI-systemen?
Begrijpen van Mens-AI Interactie Dit houdt in dat de mens toezicht houdt op een autonoom AI-systeem, waarbij de menselijke operator ingrijpt wanneer dat nodig is ## Footnote Voorbeeldzin: Bij de 'mens-op-de-lus' aanpak heeft de mens controle over de beslissingen van een autonoom AI-systeem.
32
Hoe draagt “mens-uit-de-lus” bij aan het verminderen van menselijke controle over AI?
Begrijpen van Mens-AI Interactie In deze situatie werkt het AI-systeem volledig autonoom zonder enige menselijke tussenkomst, wat het risico op verlies van menselijke controle vergroot ## Footnote Voorbeeldzin: De 'mens-uit-de-lus' benadering kan leiden tot verminderde menselijke controle over AI-systemen.
33
Waarom is menselijke betrokkenheid belangrijk bij zelflerende AI-systemen?
Begrijpen van Mens-AI Interactie Menselijke betrokkenheid zorgt voor ethische controle, vermindert de kans op onbedoelde gevolgen en zorgt voor naleving van de normen van de samenleving ## Footnote Voorbeeldzin: Menselijke betrokkenheid is essentieel voor het waarborgen van ethische normen bij zelflerende AI-systemen.
34
Hoe draagt menselijke supervisie bij aan ethische AI-toepassingen?
Begrijpen van Mens-AI Interactie Het stelt mensen in staat om AI-systemen te monitoren, corrigeren en stoppen wanneer ze afwijken van de ethische normen ## Footnote Voorbeeldzin: Menselijke supervisie speelt een cruciale rol bij het handhaven van ethische standaarden in AI-toepassingen.
35
elde gevolgen en zorgt voor naleving van de normen van de samenleving
Het stelt mensen in staat om AI-systemen te monitoren, corrigeren en stoppen wanneer ze afwijken van de ethische normen ## Footnote Voorbeeldzin: De menselijke supervisie zorgt ervoor dat AI-toepassingen in overeenstemming blijven met de normen van de samenleving.
36
Wat zijn de risico’s van volledige automatisering zonder menselijke supervisie?
Volledige automatisering kan leiden tot verkeerde beslissingen, gebrek aan menselijke empathie en risico’s voor veiligheid en ethiek ## Footnote Voorbeeldzin: Zonder menselijke supervisie bestaat het risico dat AI-systemen ethische normen schenden en onveilige beslissingen nemen.
37
Hoe kan de “mens-in-command” aanpak worden toegepast in kritieke sectoren zoals de gezondheidszorg?
In de gezondheidszorg kan de “mens-in-command” aanpak ervoor zorgen dat AI-systemen alleen opereren onder strikte supervisie van menselijke experts, waardoor onjuiste diagnoses of behandelingen worden voorkomen ## Footnote Voorbeeldzin: Door de 'mens-in-command' aanpak toe te passen in de gezondheidszorg, kan de veiligheid en kwaliteit van de zorg worden verbeterd.
38
Wat houdt "Human-in-the-loop" in?
Het betekent dat een mens actief deelneemt aan het beslissingsproces van een Al-systeem en de uiteindelijke beslissingen neemt. ## Footnote Voorbeeldzin: Een Al kan een diagnose voorstellen, maar een arts neemt de uiteindelijke beslissing.
39
Wat is een voorbeeld van "Human-on-the-loop" in een medische context?
Een Al kan een diagnose voorstellen, maar een arts neemt de uiteindelijke beslissing.
40
Hoe verschilt "Human-on-the-loop" van "Human-in-the-loop"?
Bij "Human-on-the-loop" opereert de Al autonoom, maar een mens houdt toezicht en kan indien nodig ingrijpen.
41
In welke situaties is "Human-on-the-loop" geschikt?
Voor toepassingen waar snelle en complexe berekeningen nodig zijn, zoals autonome voertuigen of Al die vitale functies van patiënten bewaakt.
42
Wat betekent "Human-in-command"?
De Al voert alleen acties uit die expliciet door een mens worden goedgekeurd, en alle belangrijke beslissingen worden door een mens genomen.
43
Wat is een voorbeeld van een "Human-in-command" scenario?
Een Al die een chirurg ondersteunt tijdens een operatie, maar geen acties autonoom uitvoert zonder toestemming van de chirurg.
44
Wat is een belangrijk kenmerk van een "Human-out-of-the-loop" systeem?
Het systeem opereert volledig autonoom zonder menselijke tussenkomst of toezicht.
45
Wat is een potentieel risico van "Human-out-of-the-loop" systemen?
Gebrek aan verantwoordelijkheid en controle, vooral als het systeem onverwacht gedrag vertoont.
46
In welke toepassingen zou "Human-in-command" nuttig zijn?
In toepassingen met hoge risico's, zoals nucleaire energiebeheer, luchtvaart, of complexe chirurgische procedures.
47
Welke van de volgende modellen biedt de hoogste mate van menselijke controle over een Al-systeem: "Human-in-the-loop", "Human-on-the-loop" of "Human-out-of-the-loop"?
"Human-in-the-loop" biedt de hoogste mate van menselijke controle, omdat mensen actief deelnemen aan elke beslissing.