AI倫理原則の規範倫理学的根拠の探求
AIが基本的人権や人間社会に対してもたらすリスクに対処し、AIの開発や使用をより「倫理的」なものとするために、各国政府や様々な業界団体・学会等がAI関連の原則やガイドラインを策定している。これらの原則・ガイドラインは一般的には法的拘束力を持たず、関係者による自発的な取組みを促すような社会規範、すなわち「倫理」の1つの形態であると考えられる。本稿ではAI関連の原則のうち「倫理原則」と明記されたものとして3つ(欧州委員会EGE、AI4People、欧州委員会AI HLEG)をピックアップし、各原則が規範倫理学上のどのような理論(義務論、功利主義、徳倫理学等)に基づき導出されたものであるのか、その規...
Saved in:
Published in | 日本セキュリティ・マネジメント学会誌 Vol. 38; no. 3; pp. 2 - 12 |
---|---|
Main Author | |
Format | Journal Article |
Language | Japanese |
Published |
日本セキュリティ・マネジメント学会
2024
|
Subjects | |
Online Access | Get full text |
ISSN | 1343-6619 2434-5504 |
DOI | 10.32230/jssmjournal.38.3_2 |
Cover
Summary: | AIが基本的人権や人間社会に対してもたらすリスクに対処し、AIの開発や使用をより「倫理的」なものとするために、各国政府や様々な業界団体・学会等がAI関連の原則やガイドラインを策定している。これらの原則・ガイドラインは一般的には法的拘束力を持たず、関係者による自発的な取組みを促すような社会規範、すなわち「倫理」の1つの形態であると考えられる。本稿ではAI関連の原則のうち「倫理原則」と明記されたものとして3つ(欧州委員会EGE、AI4People、欧州委員会AI HLEG)をピックアップし、各原則が規範倫理学上のどのような理論(義務論、功利主義、徳倫理学等)に基づき導出されたものであるのか、その規範倫理学的な根拠を掘り下げた。その結果、これらのAI倫理原則に含まれる多くの原則は、その主なルーツを義務論(カント道徳哲学やロスの義務論)に持つことが明らかになった。このような倫理学上の根拠を示すことは、AI倫理が応用倫理学的な視点を見失わないためにも有益と考えられる。 |
---|---|
ISSN: | 1343-6619 2434-5504 |
DOI: | 10.32230/jssmjournal.38.3_2 |