AI倫理原則の規範倫理学的根拠の探求

AIが基本的人権や人間社会に対してもたらすリスクに対処し、AIの開発や使用をより「倫理的」なものとするために、各国政府や様々な業界団体・学会等がAI関連の原則やガイドラインを策定している。これらの原則・ガイドラインは一般的には法的拘束力を持たず、関係者による自発的な取組みを促すような社会規範、すなわち「倫理」の1つの形態であると考えられる。本稿ではAI関連の原則のうち「倫理原則」と明記されたものとして3つ(欧州委員会EGE、AI4People、欧州委員会AI HLEG)をピックアップし、各原則が規範倫理学上のどのような理論(義務論、功利主義、徳倫理学等)に基づき導出されたものであるのか、その規...

Full description

Saved in:
Bibliographic Details
Published in日本セキュリティ・マネジメント学会誌 Vol. 38; no. 3; pp. 2 - 12
Main Author 小泉, 雄介
Format Journal Article
LanguageJapanese
Published 日本セキュリティ・マネジメント学会 2024
Subjects
Online AccessGet full text
ISSN1343-6619
2434-5504
DOI10.32230/jssmjournal.38.3_2

Cover

More Information
Summary:AIが基本的人権や人間社会に対してもたらすリスクに対処し、AIの開発や使用をより「倫理的」なものとするために、各国政府や様々な業界団体・学会等がAI関連の原則やガイドラインを策定している。これらの原則・ガイドラインは一般的には法的拘束力を持たず、関係者による自発的な取組みを促すような社会規範、すなわち「倫理」の1つの形態であると考えられる。本稿ではAI関連の原則のうち「倫理原則」と明記されたものとして3つ(欧州委員会EGE、AI4People、欧州委員会AI HLEG)をピックアップし、各原則が規範倫理学上のどのような理論(義務論、功利主義、徳倫理学等)に基づき導出されたものであるのか、その規範倫理学的な根拠を掘り下げた。その結果、これらのAI倫理原則に含まれる多くの原則は、その主なルーツを義務論(カント道徳哲学やロスの義務論)に持つことが明らかになった。このような倫理学上の根拠を示すことは、AI倫理が応用倫理学的な視点を見失わないためにも有益と考えられる。
ISSN:1343-6619
2434-5504
DOI:10.32230/jssmjournal.38.3_2