인공지능 윤리 Flashcards

1
Q

인공지능 윤리 기준

A

[정의] 인공지능기술 활용하는 사회 전체 구성원이 인공지능 개발~활용 전 단계에서 함께 지켜야 할 윤리 원칙
[추진배경]
- 정부주도 : AI 국가전략 주요과제, 지능정보화 기본법-제 62조 지능정보사회윤리
- 사회영향 : AI 발전의 부정적 영향(AI역기능, AI활용 보안위협), AI영향도 증가
[3대원칙] (인사기) 인간 존엄성 원칙, 사회 공공선 원칙, 기술 합목적성 원칙
[10대 핵심요건] (인프다 공안연데 침투책)
- 인간 존엄성 확보 : 인권존중, 프라이버시 보호, 다양성 존중
- 사회 공공선 확보 : 공공성, 안전성, 연대성, 데이터보호
- 기술 합목적성 확보 : 책임성, 투명성, 침해금지

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

아실로마 AI 원칙

A

[리드] 인공지능 윤리적 문제 해결 노력
[정의] 인공지능(AI) 개발의 목적, 윤리와 가치, 장기적 이슈등에 대해 개발자들이 지켜야할 준칙
[필요성] 인공지능 윤리 문제, 편향성(데이터,알고리즘,AI카르텔), 신뢰할 수 없는 문제
[주요 원칙] (23개) (연윤장)
1. 연구이슈(5) : 연구 목표, 연구비 지원, 과학 정책 연계, 연구 문화, 경쟁 지양
2. 윤리와 가치(13) : 안전, 장애 투명성, 사법투명성, 책임성, 가치관 정렬, 인간적 가치, 개인정보 보호, 자유와 개인정보, 공동 이익, 공동 번영, 인간 통제, 비파괴, 무기 경쟁
3. 장기적 이슈(5) : 능력주의, 중요성, 위험, 재귀적 자기 개선, 공동의 선

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

인공지능 개인정보보호 자율점검표

A

6대원칙 적법성, 투명성, 안전성, 공정성, 참여성, 책임성
[단계별 점검사항]

<단계별> → 4단계, 9개 점검 항목과 33개 확인사항
1단계. 기획/설계 : PbD 원칙 적용
2단계. 개인정보 수집
3단계. 개인정보 이용/제공
4단계. 개인정보 보관 파기 : 암호화, 접근통제
<상시> → 4단계, 7개 점검 항목과 21개 확인사항
5단계. AI 서비스 관리/감독
6단계. AI 서비스 이용자 보호 및 피해 구제
7단계. 개인정보 자율보호 활동
8단계. AI 윤리 점검
</상시></단계별>

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

인공지능 인권 가이드라인

A

[인권 가이드라인]
- 개인 측면 : 인간의 존엄성, 자기 결정권 보장
- 사회 측면 : 투명성과 설명 의무, 차별 금지
- 정책 측면 : 인공지능 인권영향 평가 시행, 위험도 등급관련 법제도 마련

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

인공지능 공정성 기준

A

[정의] 편향성으로 발생하는 불공정성을 해결 하기 위한 기준과 분류
[공정성 기준 구성요소]
- 개인속성 : 민감 속성(차별 원인 되면 안되는 속성-성별,종교), 비민감 속성(민감 속성 X 속성-이름,연봉), 대리변수(비민감 속성중 민감속성과 관계 속성), 해소 변수(대리변수 중 공정성을 해치치 않는 속성-연봉 및 직업)
- 판단결과 : 인공지능 예측 결과, 인공지능 예측 점수, 실제 결과
[공정성 기준]
- 통계적 정의 : 모든 집단에 대해 균등한 긍정/부정 확률로 판단 (통계적 동등성, 기회의 동등성, 가능성의 동등성)
- 유사성 기반 : 개인 간 유사성을 기반으로 한 공정성 기준 (자각을 통한 공정성, 무지를 통한 공정성)
- 인과적 정의 : 인공지능 모델이 판단을 내리는 과정에 민감 속성이 어떤 인과적 역할을 하였는지를 분석함으로써 공정성을 판단 (반사실적 공정성, 해소되지 않은 차별의 부재)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

EU 인공지능 규제안

A

[정의] EU의 가치, 기본권, 원칙을 존중하는 한편, 기술 리더쉽 유지, 신기술 혜택의 향유를 위해 신뢰가능한 AI 를 위한 법적 프레임워크
* 최소필요 조건으로 제한, 미래에도 작동 가능하고 적용 범용성을 가진 유연한 법적 프레임워크 제시
[규제안의 주요내용]
- 용인할 수 없는 위험 : 잠재의식에 영향을 미치는 기술, AI기반 생체 인식 금지 (AI 시스템에 활용 금지)
- 고위험 : 건강/안전/기본권에 고위험 야기 시스템 (사전 적합성 평가 수행 요구)
- 낮은 위험 : 챗봇등 낮은 위험의 AI 시스템 (자발적 준수를 위한 행동강령 수립 권장)
[시사점]
- EU 규제안이 글로벌 표준 가능성 : 지속적 모니터링, AI 기업들의 지원책 마련
- AI 활용을 위한 규제 논의 본격화 : 사회적 관심/우려 증가 (인권과 혁신간의 균형)
- AI 순기능/역기능에 대한 지속적 증거수집 노력 : 구체적 사실에 기반한 규제 필요
* 2023년 6월 법안 협상(시행 전 최종 단계) 가결, 제정 후 위반 시 기업 피해 방지를 위한 적극적 대응 필요

How well did you know this?
1
Not at all
2
3
4
5
Perfectly