Module 2D - Case studie zelfrijdende auto's (les 7) Flashcards
Wanneer is de term AI ontstaan?
Term ontstaan in 1956 tijdens een summer conference in Darthmouth.
Wat zijn de 2 grote benaderingen in AI?
- Expertsysteem: de kennis gebaseerde benadering, waar we dus eigenlijk heel het systeem, heel de kennis van een expert in een AI systeem inplant, top down: bv. kennis dokter.
- Datagebaseerde Machine Learning: vooral deze belangrijk voor het blackbox probleem (niet-transparant en zelflerend): buitencontractueel leunt op handeling van natuurlijke of rechtspersoon → heel moeilijk om die handeling te vinden!
Wat is het verschil tussen zwakke en algemene AI?
- Zwakke AI kan wat de mens kan, alleen veel sneller en accurater maar in een heel specifiek gedeelte.
- Algemene AI = kan wat een mens kan -> daar zijn we nog niet.
- Singularity = strong AI, AI sterker dan de mens zelf.
Wat zijn voorbeelden van datagedreven AI?
- Belangrijk datagedreven AI: zelf updaten, zelf beslissingen nemen, zelf leren.
- Talrijke voorbeelden:
- Chatbots, gezichtsherkenning, AI in sport,…
- Fraudedetectie, bedrijfsprocessen verbeteren, contracten,…
Wat is er specifiek van belang bij een zelfbesturende auto?
- Is er nog een bestuurder? Hoe meer autonomie = hoe minder bestuurder.
- Bestuurder = juridisch geijkte term → hier verwijst de wegcode naar.
- Gebruiker = niet-juridisch.
Overname rijtaak technologie in verschillende stappen
- Informatieverschaffing aan de gebruiker = GPS
- Automatisering: hierbij gaan de instructies van de gebruiker automatisch worden opgevolgd: cruise control
- Autonomisering: hierbij gaat de zelfrijdende wagen zelf bepaalde beslissing nemen: automatisch parkeren, lane control. Hierbij gaat de mens zelf niet tussenkomen.
AI neemt alle functies over: al die taken van de mens geleidelijk aan worden overgenomen door het autonome voertuig.
Wat is het Concorda project en het Smart Highway project?
- Concorda project op EU niveau: weginfrastructuur aanpassen aan de autonome voertuigen.
- Smart Highway project: Vlaamse overheid investeert in een rijstrook nabij Deurne waarbij ze testen doen met die voertuigen: testprojecten KUL en Ugent.
Hoe staat de wetenschap momenteel tegenover zelfrijdende auto’s?
- Vroeger heel veel optimisme maar is ondertussen overgeschakeld naar pessimisme: geloof dat het er snel gaat komen = niet voor morgen:
- Toont aan dat we nog altijd maar in gerichte AI zitten: 1 taak heel specifiek kan, maar dus niet veralgemeend gebruikt.
- Rijden in de stad = enorm moeilijk.
- Ook in de wegcode: subjectieve beoordelingen: bv. aanpassen aan omstandigheden → hoe moet je dit inplannen in een AI-systeem?
Voordelen zelfrijdende AI:
- Veiligheid, je kan rusten, ontspannen, mensen met een beperking heel gemakkelijk vervoeren, gebruiksvriendelijk = sociaal voordeel.
Nadelen AI:
- Impact op tewerkstelling, risico op bias, discriminatie, black-box → waar zit probleem?
- Ethisch probleem: trolley probleem: Er zijn al commerciële bedrijven die zeggen: altijd bescherming van inzittenden!
- Impact op recht, regelgevend kader. Helemaal omgooien?
- Nee! Geen nood aan AI regelgeving die heel hard regelt = is het bestaande kader voldoende?
- Impact autonome voertuigen op juridisch kader?
- Nog nood aan rijbewijs of ander soort rijbewijs?
Regulering van artificiële intelligentie?
- CITIP en in april EC regelgeving en dan vooral hoge risico AI systemen.
- Standaardwerk: Lawrence Lessig: die zegt dat we gedrag van mensen kunnen bepalen, beïnvloeden met meer dan alleen maar wetgeving en u zal zien dat is in de context van AI-regulering van groot belang.
4 reguleringsmodaliteiten om het gedrag van mensen te bepalen:
- Law: wetgeving: bv. bebouwde kom mag je maar 50 km/u rijden. Objectief dus makkelijk te implementeren in AI. Subjectieve elementen is moeilijker (bv. gepaste snelheid).
- Sociale normen: ethiek: bv. BV’s op reclameborden = “ik gebruik geen gsm achter het stuur”
- Architectuur of technologie: bv. verkeersdrempels
- Markt: bv. bepaalde auto’s duurder maken, bezinekost hoger = prijsregulering invloed op het gedrag.
Hoe nemen we die 4 reguleringsmodaliteiten mee in de regulering van AI?
- Wat is er technisch? Waar liggen de techtnische grenzen en mogelijkheden? Wat willen we ethisch? Waarvoor willen we AI inzetten? Waarvoor niet? Wetgevend, moeten we reguleren? Zijn de bestaande wetgevingsmodellen, bijvoorbeeld de GDPR, productaansprakelijkheid, productveiligheid, zijn die voldoende? Dat is het wetgevend kader.
- De markt, we kunnen bepaalde AI systemen die we niet willen, kunnen we duurder maken of afremmen. Dus dat is een interactie. Dus dat is eigenlijk het kader waarbinnen dat alles gebeurt.
AI governance:
- Wat kan er technisch?
- Momenteel zwakke AI = beperkingen op AI.
- Wat kan er juridisch?
- We hebben heel veel wetgeving: heel veel informatieverplichtingen voor consumenten: moeten we dit aanpassen ipv helemaal nieuwe wetgeving.
- Er is een interactie tussen het juridische, het ethische, het technische en het economische en dat is eigenlijk het kader dat je altijd moet meepakken binnen die, binnen die regulering, als we het hebben over die regulering van AI.
Mogen we testen met autonome voertuigen?
- September 2016: “Gedragscode autonome voertuigen”, maar dit vereist nog atlidj een bestuurder omdat je de verplichting hebt om de wegocde te testen.
- Dit is ondertussen geremedieerd: art. 59/1 = afwijking van wegcode voor testen zelfrijdende voertuigen: veel vereisten (bv. goedkeuring minister, beperkt in de tijd).
- Het kader is er wel in België en in Europa (Concorda project): om ruimte te geven te experimenteren.
Waarom is er zoveel aandacht voor buitencontractuele aansprakelijkheid mbt AI?
- Omdat dit significante risico’s heeft waardoor we een gepast kader nodig hebben om schade die veroorzaakt wordt door AI-systemen op te vangen. Kan natuurlijk contractueel, maar voor een consument, of een voetganger: ongevallen gebeuren.
- Eigenschappen van AI die dit in de hand werken:
- ondoorzichtigheid, connectiviteit, een AI-systeem is afhankelijk van data toevoer, zit in een complex ecosysteem
- Autonomie
- Moeilijk om te vinden wie aansprakelijk is!
Wat is het belangrijkste luik in het BCA AI dilemma?
- Belangrijkste luik is nationaal: Alle concepten nog steeds op nationaal niveau: heel veel debatvoorstellen op Europees niveau, maar uiteindelijk zullen de rechters heel veel bepalen!
- Onderscheid B2B en B2C
Terugkerende elementen in al die EU-documenten
- Omkering bewijslast slachtoffers
- Notie ‘product’
- Notie ‘gebrekkige’ AI
- Rechtspersoonlijkheid AI?
- Nood aan veiligheidsstandaarden/normen voor AI actoren
- Aansprakelijkheid/rol operator
- Complexiteit van de verdeling aansprakelijkheid
- Nood aan gebalanceerd regime
- Verzekeren dat slachtoffers van schade door AI worden vergoed
Wat is het idee om AI systeem rechtspersoonlijkheid te geven,
- Als consument enorm moeilijk om aan te tonen dat een AI-systeem schade heeft veroorzaakt: al technische kennis nodig, toegang tot het systeem → heel moeilijk.
- Rechtspersoonlijkheid voor AI-systeem: Voorstel in 2017 voor robots: zelf de schade vergoeden (net zoals een bedrijf): bewijslast is gemakkelijk!
- Juridische aspecten: duties & obligations, dus niet morele rechten.
Waarom dan toch geen rechtspersoonlijkheid voor AI systeem?
- Idee is neergeschoten geweest: geen RP, ondanks dat het accountability gap beter is, omdat dit discriminatie zou kunnen discrimineren:
- Bv. geen bescherming voor bedrijven die bezig zijn met andere technologie = discriminatie
- Ander probleem: bestaande regels wijzigen:
- Efficiënter dan het toekennen van RP als zo’n fictief AI systeem: bescherming nodig om innovatie en dus ook welvaart.
- Tegenstanders: je beschermt de producten ten nadele van de slachtoffers, want rechtspersoonlijkheid = beperking of cap → beperking.
Wat houdt foutaansprakelijkheid in?
- Art. 1382-1383 BW: Fout-schade-causaliteit: Men is aansprakelijk als je schade veroorzaakt door uw fout.
- Blijft het algemeen regime ondanks bepaalde richtlijnen:
- Harmonisatie productaansprakelijkheidsrichtlijn.