Module 2D - Case studie zelfrijdende auto's (les 7) Flashcards

1
Q

Wanneer is de term AI ontstaan?

A

Term ontstaan in 1956 tijdens een summer conference in Darthmouth.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wat zijn de 2 grote benaderingen in AI?

A
  1. Expertsysteem: de kennis gebaseerde benadering, waar we dus eigenlijk heel het systeem, heel de kennis van een expert in een AI systeem inplant, top down: bv. kennis dokter.
  2. Datagebaseerde Machine Learning: vooral deze belangrijk voor het blackbox probleem (niet-transparant en zelflerend): buitencontractueel leunt op handeling van natuurlijke of rechtspersoon → heel moeilijk om die handeling te vinden!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wat is het verschil tussen zwakke en algemene AI?

A
  • Zwakke AI kan wat de mens kan, alleen veel sneller en accurater maar in een heel specifiek gedeelte.
  • Algemene AI = kan wat een mens kan -> daar zijn we nog niet.
  • Singularity = strong AI, AI sterker dan de mens zelf.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wat zijn voorbeelden van datagedreven AI?

A
  • Belangrijk datagedreven AI: zelf updaten, zelf beslissingen nemen, zelf leren.
  • Talrijke voorbeelden:
    • Chatbots, gezichtsherkenning, AI in sport,…
    • Fraudedetectie, bedrijfsprocessen verbeteren, contracten,…
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wat is er specifiek van belang bij een zelfbesturende auto?

A
  • Is er nog een bestuurder? Hoe meer autonomie = hoe minder bestuurder.
  • Bestuurder = juridisch geijkte term → hier verwijst de wegcode naar.
  • Gebruiker = niet-juridisch.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Overname rijtaak technologie in verschillende stappen

A
  1. Informatieverschaffing aan de gebruiker = GPS
  2. Automatisering: hierbij gaan de instructies van de gebruiker automatisch worden opgevolgd: cruise control
  3. Autonomisering: hierbij gaat de zelfrijdende wagen zelf bepaalde beslissing nemen: automatisch parkeren, lane control. Hierbij gaat de mens zelf niet tussenkomen.

AI neemt alle functies over: al die taken van de mens geleidelijk aan worden overgenomen door het autonome voertuig.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wat is het Concorda project en het Smart Highway project?

A
  • Concorda project op EU niveau: weginfrastructuur aanpassen aan de autonome voertuigen.
  • Smart Highway project: Vlaamse overheid investeert in een rijstrook nabij Deurne waarbij ze testen doen met die voertuigen: testprojecten KUL en Ugent.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Hoe staat de wetenschap momenteel tegenover zelfrijdende auto’s?

A
  • Vroeger heel veel optimisme maar is ondertussen overgeschakeld naar pessimisme: geloof dat het er snel gaat komen = niet voor morgen:
    • Toont aan dat we nog altijd maar in gerichte AI zitten: 1 taak heel specifiek kan, maar dus niet veralgemeend gebruikt.
  • Rijden in de stad = enorm moeilijk.
  • Ook in de wegcode: subjectieve beoordelingen: bv. aanpassen aan omstandigheden → hoe moet je dit inplannen in een AI-systeem?
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Voordelen zelfrijdende AI:

A
  • Veiligheid, je kan rusten, ontspannen, mensen met een beperking heel gemakkelijk vervoeren, gebruiksvriendelijk = sociaal voordeel.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Nadelen AI:

A
  1. Impact op tewerkstelling, risico op bias, discriminatie, black-box → waar zit probleem?
  2. Ethisch probleem: trolley probleem: Er zijn al commerciële bedrijven die zeggen: altijd bescherming van inzittenden!
  3. Impact op recht, regelgevend kader. Helemaal omgooien?
    • Nee! Geen nood aan AI regelgeving die heel hard regelt = is het bestaande kader voldoende?
    • Impact autonome voertuigen op juridisch kader?
      • Nog nood aan rijbewijs of ander soort rijbewijs?
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Regulering van artificiële intelligentie?

A
  • CITIP en in april EC regelgeving en dan vooral hoge risico AI systemen.
  • Standaardwerk: Lawrence Lessig: die zegt dat we gedrag van mensen kunnen bepalen, beïnvloeden met meer dan alleen maar wetgeving en u zal zien dat is in de context van AI-regulering van groot belang.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

4 reguleringsmodaliteiten om het gedrag van mensen te bepalen:

A
  1. Law: wetgeving: bv. bebouwde kom mag je maar 50 km/u rijden. Objectief dus makkelijk te implementeren in AI. Subjectieve elementen is moeilijker (bv. gepaste snelheid).
  2. Sociale normen: ethiek: bv. BV’s op reclameborden = “ik gebruik geen gsm achter het stuur”
  3. Architectuur of technologie: bv. verkeersdrempels
  4. Markt: bv. bepaalde auto’s duurder maken, bezinekost hoger = prijsregulering invloed op het gedrag.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hoe nemen we die 4 reguleringsmodaliteiten mee in de regulering van AI?

A
  • Wat is er technisch? Waar liggen de techtnische grenzen en mogelijkheden? Wat willen we ethisch? Waarvoor willen we AI inzetten? Waarvoor niet? Wetgevend, moeten we reguleren? Zijn de bestaande wetgevingsmodellen, bijvoorbeeld de GDPR, productaansprakelijkheid, productveiligheid, zijn die voldoende? Dat is het wetgevend kader.
  • De markt, we kunnen bepaalde AI systemen die we niet willen, kunnen we duurder maken of afremmen. Dus dat is een interactie. Dus dat is eigenlijk het kader waarbinnen dat alles gebeurt.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

AI governance:

A
  • Wat kan er technisch?
    • Momenteel zwakke AI = beperkingen op AI.
  • Wat kan er juridisch?
    • We hebben heel veel wetgeving: heel veel informatieverplichtingen voor consumenten: moeten we dit aanpassen ipv helemaal nieuwe wetgeving.
  • Er is een interactie tussen het juridische, het ethische, het technische en het economische en dat is eigenlijk het kader dat je altijd moet meepakken binnen die, binnen die regulering, als we het hebben over die regulering van AI.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Mogen we testen met autonome voertuigen?

A
  • September 2016: “Gedragscode autonome voertuigen”, maar dit vereist nog atlidj een bestuurder omdat je de verplichting hebt om de wegocde te testen.
    • Dit is ondertussen geremedieerd: art. 59/1 = afwijking van wegcode voor testen zelfrijdende voertuigen: veel vereisten (bv. goedkeuring minister, beperkt in de tijd).
  • Het kader is er wel in België en in Europa (Concorda project): om ruimte te geven te experimenteren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Waarom is er zoveel aandacht voor buitencontractuele aansprakelijkheid mbt AI?

A
  • Omdat dit significante risico’s heeft waardoor we een gepast kader nodig hebben om schade die veroorzaakt wordt door AI-systemen op te vangen. Kan natuurlijk contractueel, maar voor een consument, of een voetganger: ongevallen gebeuren.
  • Eigenschappen van AI die dit in de hand werken:
    • ondoorzichtigheid, connectiviteit, een AI-systeem is afhankelijk van data toevoer, zit in een complex ecosysteem
    • Autonomie
  • Moeilijk om te vinden wie aansprakelijk is!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wat is het belangrijkste luik in het BCA AI dilemma?

A
  • Belangrijkste luik is nationaal: Alle concepten nog steeds op nationaal niveau: heel veel debatvoorstellen op Europees niveau, maar uiteindelijk zullen de rechters heel veel bepalen!
  • Onderscheid B2B en B2C
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Terugkerende elementen in al die EU-documenten

A
  • Omkering bewijslast slachtoffers
  • Notie ‘product’
  • Notie ‘gebrekkige’ AI
  • Rechtspersoonlijkheid AI?
  • Nood aan veiligheidsstandaarden/normen voor AI actoren
  • Aansprakelijkheid/rol operator
  • Complexiteit van de verdeling aansprakelijkheid
  • Nood aan gebalanceerd regime
  • Verzekeren dat slachtoffers van schade door AI worden vergoed
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Wat is het idee om AI systeem rechtspersoonlijkheid te geven,

A
  • Als consument enorm moeilijk om aan te tonen dat een AI-systeem schade heeft veroorzaakt: al technische kennis nodig, toegang tot het systeem → heel moeilijk.
  • Rechtspersoonlijkheid voor AI-systeem: Voorstel in 2017 voor robots: zelf de schade vergoeden (net zoals een bedrijf): bewijslast is gemakkelijk!
    • Juridische aspecten: duties & obligations, dus niet morele rechten.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Waarom dan toch geen rechtspersoonlijkheid voor AI systeem?

A
  • Idee is neergeschoten geweest: geen RP, ondanks dat het accountability gap beter is, omdat dit discriminatie zou kunnen discrimineren:
    • Bv. geen bescherming voor bedrijven die bezig zijn met andere technologie = discriminatie
  • Ander probleem: bestaande regels wijzigen:
    • Efficiënter dan het toekennen van RP als zo’n fictief AI systeem: bescherming nodig om innovatie en dus ook welvaart.
    • Tegenstanders: je beschermt de producten ten nadele van de slachtoffers, want rechtspersoonlijkheid = beperking of cap → beperking.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Wat houdt foutaansprakelijkheid in?

A
  • Art. 1382-1383 BW: Fout-schade-causaliteit: Men is aansprakelijk als je schade veroorzaakt door uw fout.
  • Blijft het algemeen regime ondanks bepaalde richtlijnen:
    • Harmonisatie productaansprakelijkheidsrichtlijn.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Fout toegepast op AI producent en operator

A
  1. Objectief = onrechtmatige daad, inbreuk op wet:
    1. Schending specifieke gedragsnorm: momenteel heel weinig wetgevingsnormen specifiek voor AI-producent en operator: Niet alleen veiligheid en technische norm (wel product: algemene veiligheidsnorm van het WER, producenten moeten veilige producten op de markt brengen maar nog niets specifiek voor aI as such).
    2. Schending algemene zorgvuldigheidsnorm
  2. Subjectief: de onrechtmatige daad moet toerekenbaar zijn aan diegene die onzorgvuldig handelt → moeilijk voor AI!
23
Q

Wat wordt er na het brengen van een AI-systeem nog verwacht van de AI operator?

A
  • Ook eenmaal AI-systeem in werking is en op de markt, nog update verplichting, post marketing verplichting.
  • Dus we gaan eigenlijk een evolutie zien richting steeds meer standaarden, normen, veiligheidsnormen, safety, technische normen voor die betrokken actoren.
24
Q

Hoe passen we de schending van de algemene zorgvuldigheidsnorm toe op operator en producent?

A
  • Geen gedrag zoals bonus pater familias → moeilijk toe te passen op producenten en operator.
    • Producent = maakt het goed
    • Operator: tussen producent en de gebruiker: die mee het risico beheert en zo risico’s kan creëren.
      • Bv. dokter die AI-systeem voor radiologie gebruikt: is een beetje bewaarder van de zaak
  • Voor producent & operator: heel moeilijk aan te tonen dat ze onzorgvuldig hebben gehandeld:
    • AI systeem is ondoorzichtig, zelflerend,…
    • Dus je moet handelingen gaan beoordelen binnen het systeem → heel moeilijk: waar is de onzorgvuldigheid gebeurd (door transparantiegebrek).
25
Q

Welke oplossing is er uitgedacht over de moeilijkheid om de algemene zorgvuldigheid toe te passen op een AI systeem?

A
  • Daarom richtlijnen voor zorgvuldig gedrag: Daarom richtlijnen voor zorgvuldig gedrag:
    • Bv. operator moet het systeem inzetten in de omstandigheden die hij kent, volgens zijn eigen expertise. Dus wilt zeggen dat de radioloog die AI wil inzetten, dat hij de nodige achtergrond moet hebben om het te gebruiken.
    • Iemand die met een volledig zelfrijdende wagen rijdt maar niet weet hoe met te rijden dat is al een voorbeeld van onzorgvuldig gebruik.
  • Concrete richtlijnen voor producent:
    • Bijkomende monitoring en update verplichtingen voorzien om te bepalen of er een onzorgvuldigheid gebeurd is.
26
Q

Voorzienbaarheid toegepast op AI?

A
  • Voorzienbaarheid = de schade moet voorzienbaar zijn!
  • Opnieuw black box = AI systemen ontwikkelen zelf verder! Je kan het voorzien dat er mogelijks schade zijn: risico’s reduceren: systeem trainen met goede, pertinente data!
  • Als producent meegeven in welke omstandigheden uw systeem mag en moet worden gebruikt en welke omstandigheden het niet mag worden gebruikt.
    • Zo verhinder je risico’s waar dat uw schade inderdaad wordt gedekt.
  • Als schade niet-voorzienbaar is: resultaat mag niet zijn dat het schadelijder in de kou blijft staan. Dus schending specifieke gedragsnorm en algemene zorgvuldigheidsnorm voor de producenten en de operator bijzonder moeilijk.
27
Q

Wat is de evolutie van de gebruiker/bestuurder van een zelfrijdende auto?

A
  1. Gebruiker controle: traditionele: AS als je fout begaat = je hebt controle.
  2. Toezicht (overrulen): fase waar we nu zijn: als bestuurder kan je ingrijpen en je moet toezicht geven als het systeem het aangeeft.
    • Interessants vanuit juridisch oogpunt: AI neemt beslissing, maar mens neemt beslissing en moet overnemen indien er iets misloopt.
  3. Geen controle of toezicht: voertuig doet alles zelf → geen problemen want geen handelingen en je kan geen inbreuk stellen op handelingen. Gaan we hier ooit geraken in een stad?
28
Q

Onderscheid resultaatsverbintenis en inspanningsverplichtingen:

A
  1. Inspanning: zorgvuldigheidstoets: bv. aanpassen aan omstandigheden
  2. Resultaat: heel duidelijk: rij niet door rood licht etc.
29
Q

Wat zijn de 4 grote problemen bij zelfrijdende auto’s en wetgeving en de bestuurder?

A
  1. Wie is bestuurder in zo’n voertuig? Vanaf wanneer ben je geen meer in een autonoom voertuig.
  2. De toeschrijving van de handeling van het voertuig aan de bestuurder. Het is natuurlijk het voertuig door het rood licht rijdt, jij laat enkel na om in te grijpen. Kunnen we die wetsinbreuk gelijkstellen met het nalaten van in te grijpen.
  3. Controleverplichting
  4. Overmacht: gebeurtenis buiten mijn wil?
30
Q

Wat houdt het in om bestuurder te zijn?

A
  • Wegcode is een cirkelredenering: bestuurder = diegene die het voertuig bestuurt.
  • Rechtspraak: 2 elementen
    1. Persoon die voertuig in beweging brengt is bestuurder ook indien die geen intentie heeft en het stuur niet hanteert. Dus het voertuig in beweging brengen is het feitelijk criterium om als bestuurde gekwalificeerd te worden.
    2. Normatief criterium: als je verantwoordelijk bent voor het stuur ook indien er geen specifieke handelingen worden gesteld.
31
Q

Cassatie rechtspraak 1970 over bestuurder?

A
  • Zaak over een rij-instructeur die niet had ingegrepen toen de leerling een fout maakte: De feitenrechter correct waren en dat eigenlijk de rijinstructeur verantwoordelijk is voor het stuur en hij die verantwoordelijk is voor het stuur, is dus bestuurder.
    • Je kan natuurlijk een analogie trekken op basis van dat normatief criterium momenteel bestuurder blijft omdat gij natuurlijk verantwoordelijk blijft om in te grijpen in die 2de categorie.
  • Als het AI-systeem iets beslist, moet je ingrijpen.
32
Q

Rechtspraak in Nederland over gsm achter het stuur bij een Tesla?

A
  • Rechtspraak in Nederland: boete gsm achter het stuur: Tesla is bestuurder? Maar mens blijft bestuurder = feitelijk verantwoordelijk voor je voertuig: je moet ingrijpen wanneer nodig.
    • Niet over vertrouwen op die AI-systemen.
33
Q

Toeschrijven handeling bij bestuurder cassatie?

A
  • Cassatie: ja, als jij verantwoordelijk en jij grijpt niet in = alsof je het zelf deed → bv. als voertuig door het rood rijdt, wetsinbreuk aan u toegeschreven = heel verregaand!
34
Q

Wat zegt art. 8.3 van de wegcode?

A
  • Art. 8.3: algemene controleverplichting:
  • Momenteel in fase van nutteloosheid van autonomie = je moet toch altijd ingrijpen:
    • Je blijft verantwoordelijk = dus wat is dan nog het verschil met nu?
  • Idee zou zijn: naar een inspanningsverplichting gaan: je moet niet permanent perfect doen.
35
Q

Wat met overmacht en autonome auto’s?

A
  • Dit is voor onvoorzienbare en onvermijdbare gebeurtenissen. Je zou denken dat een AI systeem geen inbreuken kan doen op de wegcode maar vaak onvoorzienbaar & onvermijdbaar -> had de bestuurder kunnen ingrijpen?
  • Kijken we naar het feit dat elke normale zorgvuldiger persoon de inbreuk zou hebben verhinderd en dus dat personen in dezelfde situatie niet zouden hebben ingegrepen.
    • Dat is veel strenger dan een andere stroming in de rechtspraak dat zegt dat bestuurders reactie aannemelijk moet zijn.
    • Dus het zal wat afhangen van die striktheid, strengheid waarmee overmacht wordt ingevuld.
36
Q

Onzorgvuldigheid: de gebruiker had moeten ingrijpen?

A
  • Een normaal zorgvuldig persoon had ingegrepen, en hij heeft dat niet gedaan.
  • Of andersom, hij heeft ingegrepen terwijl het systeem dat niet zei, terwijl een normaal zorgvuldig persoon dat niet zou hebben gedaan.
37
Q

Waarom is voorzienbaarheid als gebruiker om aan te tonen?

A
  • Voorzienbaarheid van de schade door dat AI systeem dat zelflerend is, dat niet transparant is kunt ge de schade niet altijd per se voorzien. Belangrijker is dat zulke autonome systemen, onzorgvuldigheid, onbedachtzaamheid aan de weg dat natuurlijk wat in de hand werken.
  • Belangrijk: cognitief onderzoek toont aan dat je héél snel moet ingrijpen = niet realistisch.
    • Argumenten voor en argumenten tegen.
38
Q

Zaakaansprakelijkheid?

A
  • Art. 1384, lid 1: als bewaarder van de zaak die schade veroorzaak = aansprakelijk. Als dokter = bewaarder van gebrekkige zaak.
  • Ook daar: niet eenvoudig: vereiste van een zaak = lichamelijk goed:
    • Software een zaak? = samengestelde zaak? het is een onlichamelijke: verdeeldheid in de RS en rechters gaan daar een rol spelen.
39
Q

Wat met gebrek van een zaak?

A
  • = abnormaal kenmerk dat schade kan veroorzaken
    • Dan is de vraag al: is software een kenmerk van een voertuig bijvoorbeeld? Behoort dat tot de inherente structuur van het voertuig? Het staat misschien op de cloud.
    • Samengestelde zaak → kenmerk van het voertuig.
  • Gebrek moet niet blijvend zijn, mag extern zijn aan de zaak.
  • Negatieve bewijs: waarbij wordt gezegd dat als er geen andere verklaring is voor de schade dan het gebrek van de zaak, dan is er gebrekkigheid. Dat neemt niet weg dat we nog altijd niet weten wanneer de werking van een AI systeem precies gebrekkig is. Dat gaat bijzonder moeilijk zijn.
    • Opnieuw hetzelfde: zelflerendheid, non-transparantie, connectiviteit, vermoeilijken dat alleen maar.
40
Q

Wie is er bewaarder van de gebrekkige zaak?

A
  • Uiteraard van het materieel voertuig gaat dat de eigenaar zijn of de bestuurder bijvoorbeeld.
  • Maar rechtspraak toont aan: bewaarder is diegene die de zaak gebruikt of het genot ervan heeft, maar die ook de mogelijkheid heeft tot leiding, toezicht en controle.
    • Het feitelijk criterium, feitelijk meesterschap is belangrijk.
  • Dus er kunnen meerdere bewaarders van de zaak zijn: in een zelfrijdend voortuig bijvoorbeeld of in een AI-systeem dat wordt gebruikt op de radiologie dat de softwarebeheerder eigenlijk een impact heeft op de risico’s.
    • De softwarebeheerder zou dan beschouwd kunnen worden als de bewaarder van de zaak. De back-end operator. Dat is de persoon die het dichtst bij de inherente gebreken en risico’s staat. Dat is één optie.
41
Q

Zijn er in België meerdere bewaarders mogelijk?

A
  • In België: meerdere bewaarders mogelijk.
  • Tweede bewaarder: front-end operators zijn, en dat zijn concepten die terugkomen in andere Europese documenten en dan terug nauw aansluiten bij het concept bewaarder.
    • Hierbij gaat het om de persoon die kiest om het AI-systeem in een bepaalde context, bepaalde omstandigheden te gebruiken en zo risico’s creëert: bv. gebruiker van het voertuig.
    • Als ik met mijn zelfrijdende wagen zou gaan rijden, of zou gebruiken, andere mensen worden blootgesteld aan dat risico door mij. Ik heb een impact op het risico op de mogelijke schade, de front-end operator.
  • Dat zijn twee concepten die de komende jaren heel belangrijk gaan worden binnen de regulering van AI en aansprakelijkheid. Dus de discussie natuurlijk over wie is bewaarder zijn al van het nationale naar het Europese niveau gegaan door die concepten backend en frontend operator. In se zijn meerdere bewaarders mogelijk.
42
Q

Wat met productaansprakelijkheid?

A
  • Richtlijn productaansprakelijkheid: veel aandacht door harmonisatie.
  • Producenten: hun aansprakelijkheid stopt op een bepaald moment als hun product op de markt zit. De inverkeerstelling, daar ligt hun risico. Niet die permanente monitoring die ge wel hebt bij de bewaarder van de zaak.
  • Richtlijn: De idee is om de producent aansprakelijk te stellen voor gebreken in het product = cheapest cost avoider: Producent heeft de kennis, de know how, de informatie om bepaalde risico’s te verminderen.
  • Product, gebrek en producten. Veel loopt gelijk met zaakaansprakelijkheid: Het gaat nog maar eens aantonen hoe moeilijk dat gaat zijn om dat aan te tonen.
43
Q

Is software een roerend goed?

A
  • Software is onlichamelijk dus moeilijk want productaansprakelijkheid gaat over roerende goederen. Product, gebrek en producten. Veel loopt gelijk met zaakaansprakelijkheid: Het gaat nog maar eens aantonen hoe moeilijk dat gaat zijn om dat aan te tonen.
    • Prof vindt het wel deel van een materiële werkelijkheid, ondanks dat het niet-waarneembaar is = vereiste voor lichamelijkheid.
  • Brede teleologische interpretatie richtlijn:
    • In jaren 80: heel breed → En dat we toen niet dachten aan software, pc’s, algoritmes, AI is logisch want het is pas sinds de laatste jaren dat het zo aan het boomen is. De fundamentele vraag: is software een product? En op Europees niveau lijken ze toch richting de gaan om het toch te erkennen als een product.
  • Wachten op het Hof van Justitie.
44
Q

Wanneer is de softwareproducent aansprakelijk voor een gebrek in zijn product?

A
  • Naast het product, dat al heel veel uitdagingen heeft, moet het product ook gebrekkig zijn. Softwareproducent is aansprakelijk voor een gebrek in zijn product.
  • Een product is gebrekkig als het niet de veiligheid geeft dat men gerechtigd is te verwahcten = rechtmatige veiligheidsverwachtigen.
  • Alle omstandigheden moeten daarbij in overweging worden genomen maar er worden een aantal elementen opgesomd: de redelijke voorzienbaarheid van het gebrek, het tijdstip van inverkeerstelling maar, en heel belangrijk en eigenlijk cirkelredenering, ook de presentatie van het product.
45
Q

Wat is een alternatief voor product gebrekkigheid AI?

A
  • Risk utility: Waarbij je dus eigenlijk gaat kijken, naar de risico’s, vergelijken met het maatschappelijk nut van een product. Als de risico’s onverklaarbaar, disproportioneel, niet in verhouding staan met het nut, is er mogelijkheid tot aansprakelijkheid.
  • Dus je kijkt eigenlijk niet meer naar de verwachtingen van het publiek, maar eigenlijk eerder naar de verwachtingen, naar de mogelijke alternatieven die een producent had.
46
Q

Hoe kan het aansprakelijkheidsrisico werken als incentive voor pdoucenten?

A
  • Zo gaan ze in veiligheid willen investeren, maar als uw veiligheidsprikkel te groot is dan gaje stoppen met innoveren = deterring effect of tort law.
  • Dus er moet een cap zijn voor aansprakelijkheid, anders té groot afremmend effect = balans dat je moet zoeken bij regulering van AI.
47
Q

Waarom is het moeilijk om een gebrek aan te tonen bij AI?

A
  • Als er iets mis is met AI, betekent dat niet per se dat er productiefouten zijn -> veel meer design/ontwerp gebreken dus heel moeilijk om aan te tonen: vergelijking maken met een AI-referentiesysteem.
    • Hoe zou een AI systeem zich in dezelfde omstandigheden hebben gedragen?
  • Een product is niet per se gebrekkig als er veiligere alternatieven bestaan. AI gaat zich ook altijd updaten, veiliger worden -> referentie aanpassen.
  • Dus uitkijken: hoe gaat dit worden toegepast in de praktijken: daarmee die claimen die risk utility, een nieuwe manier om met het gebreksvereiste invulling te geven.
    • Zeer zware bewijslast. Daarmee daar ook denken aan een omkering van de bewijslast in die omstandigheden.
48
Q

Wat is de bewijslast bij gebrek producent?

A
  • Producent is niet aansprakelijk als die aannemelijk maakt dat het gebrek niet bestond op het ogenblik waarop het product in verkeer werd gebracht. Dus producenten zijn niet aansprakelijk voor gebreken die ontstaan na de inverkeersstelling.
    • Bij traditionele producten zoals een stoel is dat natuurlijk om te vermijden dat slijtage of een fout gebruik tot aansprakelijkheid kan leiden.
49
Q

Waarom werkt deze bewijslast niet bij AI producenten?

A
  • AI systemen leren heel de tijd continue bij: permanente updates = zelf-lerende systemen. Dus het kan dat het product perfect werkt op het moment dat het in de markt wordt gebracht maar later gebrekkig wordt.
  • Alternatief zou zijn: elke software update kan worden beschouwd als een nieuw moment van inverkeersstelling. Dus vanaf dat er een update is, is er een nieuwe inverkeersstelling.
    • Dat is natuurlijk uitdagend, want dat zou eigenlijk kunnen betekenen dat producenten hun updates niet langer gaan uitvoeren, omdat ze natuurlijk een risico op aansprakelijkheid krijgen door ze uit te voeren.
  • Anderen: voor zelf-lerende systemen moeten we deze defense gewoon volledig weglaten: Dus niet meer nodig voor AI-systemen, producenten blijven heel de tijd aansprakelijk.
50
Q

Expertenrapport EU over aansprakelijkheid en inverkeersstelling?

A
  • Stelt voor dat een producent aansprakelijk blijft voor gebreken die zijn ontstaan na de inverkeerstelling, voor zover het gebrek de oorsprong vindt in een digitaal component van het AI-systeem of de oorsprong vindt in de afwezigheid van een software update die nodig was voor die veiligheidsverwachtingen.
    • Natuurlijk, dat expertenrapport is geen bindend wetgevend kader, het is eerder een aanbeveling waar we naartoe moeten gaan.
51
Q

Wat is een ontwikkelingsrisico?

A
  • Dat er geen aansprakelijkheid gaat zijn als het onmogelijk is om het gebrek in het systeem te ontdekken op grond van wetenschappelijke technische kennis.
    • Kan een valabel argument zijn!
  • Strikte invulling rechtspraak: het moet echt gaan over de hoogste technische eisen en vereisten. Dus niet zozeer de kennis die ik heb, het moet echt gaan over de hoogste vereisten, dus heel streng.
    • Zeer zelden aanvaard in de RS!
52
Q

Wat is het voorstel van het Europees parlement over AS van operator?

A
  • Strikte AS voor operatoren van hoge risico systemen. Dus zij zijn sowieso aansprakelijk. Hoge risico, een hele lijst wordt daar voorgesteld.
  • Andere kant: foutaansprakelijkheid voor operatoren van lage risico systemen maar met een omkering van de bewijslast. Waarbij dat dus die operator moet aantonen, ik heb geen fout begaan.
53
Q

Wat zijn belangrijke to do’s?

A
  • Heel veel ethische en juridische vragen: eigenschappen van AI zorgen voor uitdagingen op het vlak van AI en buitencontractuele aansprakelijkheid. Andere kant: foutaansprakelijkheid voor operatoren van lage risico systemen maar met een omkering van de bewijslast. Waarbij dat dus die operator moet aantonen, ik heb geen fout begaan.
  • Er is nood aan concretisering, nood aan acties. We weten de problemen, het algemeen kader is er. Het is echt tijd om antwoorden te bieden.
  • Fundamenteel om na te denken over de bewijslast van slachtoffers.
54
Q

Waarom is certificering van AI moeilijk?

A
  • Cerficering van AI: label geven van veiligheid bv. is heel moeilijk. Want certificeert maar is dat uw systeem trustworthy is, certificeert maar is dat uw systeem voldoet aan eisen.
    • Inzetten op datageletterdheid! Het juridisch kader zal zich op termijn aanpassen, maar de bredere bevolking moet mee in het hele AI verhaal: ook positie van rechters essentieel!