ปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม: ประเด็นปัญหาทางปรัชญา (Artificial Intelligence and Moral Responsibility: A Philosophical Problem)
รหัสดีโอไอ
Creator ปิยณัฐ ประถมวงษ์
Title ปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม: ประเด็นปัญหาทางปรัชญา (Artificial Intelligence and Moral Responsibility: A Philosophical Problem)
Publisher คณะสังคมศาสตร์ มหาวิทยาลัยนเรศวร
Publication Year 2566
Journal Title วารสารสังคมศาสตร์ มหาวิทยาลัยนเรศวร
Journal Vol. 19
Journal No. 2
Page no. 31-57
Keyword ปัญญาประดิษฐ์, ความรับผิดชอบทางจริยธรรม, การเป็นผู้กระทำการทางจริยธรรม, ช่องว่างของความรับผิดชอบทางจริยธรรม, Artificial Intelligence, Moral Responsibility, Moral Agency, Responsibility Gap
URL Website https://so04.tci-thaijo.org/index.php/jssnu
Website title https://so04.tci-thaijo.org/index.php/jssnu/article/view/262409
ISSN 2985-2811 (Print), 2985-282X (Online)
Abstract ความก้าวหน้าของปัญญาประดิษฐ์ได้ก่อให้เกิดข้อถกเถียงเรื่องความรับผิดชอบทางจริยธรรม มนุษย์มีแนวโน้มที่จะใช้ให้ปัญญาประดิษฐ์ทำงานแทนตนเองมากขึ้น ในแง่หนึ่งปัญญาประดิษฐ์สามารถเรียนรู้และตัดสินใจได้เอง ทว่ามันก็ไม่สามารถรับผิดชอบทางจริยธรรมอันเป็นอิสระจากมนุษย์ได้ คำถามที่น่าสนใจก็คือว่า หากปฏิบัติการของปัญญาประดิษฐ์นำไปสู่ผลร้ายทางจริยธรรมที่คาดไม่ถึง เราจะทำความเข้าใจเรื่องความรับผิดชอบทางจริยธรรมของปัญญาประดิษฐ์ได้อย่างไร บทความวิจัยนี้ใช้วิธีการวิจัยเชิงเอกสาร มีวัตถุประสงค์มุ่งศึกษาและวิเคราะห์ประเด็นปัญหาเรื่องปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม และอภิปรายเพื่อนำเสนอมุมมองทางปรัชญาของผู้เขียนเพื่อพยายามแก้ปัญหาเรื่องช่องว่างของความรับผิดชอบทางจริยธรรม ผลการวิจัยมีข้อเสนอหลัก 2 ข้อ กล่าวคือ (1) ผู้เขียนสนับสนุนแนวคิดที่ว่าความรับผิดชอบทางจริยธรรมจำเป็นต้องยึดโยงกับการเป็นผู้กระทำการทางจริยธรรมในแบบที่ไม่ใช้กรอบคิดแบบดั้งเดิม กล่าวคือ ไม่ได้กำหนดความรับผิดชอบไปที่ปัจเจกบุคคลและคุณลักษณะแบบมนุษย์ของปัจเจกบุคคล และ (2) สืบเนื่องจากเหตุผลแรก ผู้เขียนจึงเสนอว่ามโนทัศน์เรื่องการเป็นผู้กระทำการทางจริยธรรมในฐานะที่เป็นปฏิสัมพันธ์ร่วมกันระหว่างมนุษย์กับปัญญาประดิษฐ์เป็นสิ่งจำเป็นต่อความรับผิดชอบทางจริยธรรม แม้ว่าแนวคิดนี้จะยังคงมีแนวโน้มยึดโยงอยู่กับการเป็นผู้กระทำการ และความเป็นสาเหตุซึ่งสอดคล้องกับวิธีคิดแบบมองย้อนกลับหลัง แต่เราก็ควรพยายามปรับให้แนวคิดนี้ให้มีความสอดคล้องกับวิธิคิดเรื่องความรับผิดชอบทางจริยธรรมในแบบที่มองไปข้างหน้าด้วยเช่นกันThe progress of artificial intelligence (AI) has raised debates on moral responsibility. Humans tend to delegate tasks and practices to AI. Whereas AI can learn and make decision by itself, it cannot be morally responsible and independent from the human being. The crucial question is how can we understand and articulate the moral responsibility of AI if the practices of AI have unintended consequences or are morally wrong? According to a documentary research method, this article aims to study and analyze the problem of AI and moral responsibility. It then discusses and proposes arguments attempting to tackle the problem of the responsibility gap. As a result, it offers two thesis statements: (1) it advocates that moral responsibility demands moral agency in a non-traditional approach, i.e., it does not locate responsibility in the individual and its human-like attribution. Furthermore, (2) it argues, following the previous statement, that the concept of moral agency as a mutual interaction between humans and AI is necessary for moral responsibility. Although the argument tends to deal with agency and causalitywhich is consistent with a backward-looking approach, we should also adjust it to consider moral responsibility in terms of a forward-looking approach.
มหาวิทยาลัยนเรศวร

บรรณานุกรม

EndNote

APA

Chicago

MLA

ดิจิตอลไฟล์

Digital File
DOI Smart-Search
สวัสดีค่ะ ยินดีให้บริการสอบถาม และสืบค้นข้อมูลตัวระบุวัตถุดิจิทัล (ดีโอไอ) สำนักการวิจัยแห่งชาติ (วช.) ค่ะ