|
ปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม: ประเด็นปัญหาทางปรัชญา (Artificial Intelligence and Moral Responsibility: A Philosophical Problem) |
|---|---|
| รหัสดีโอไอ | |
| Creator | ปิยณัฐ ประถมวงษ์ |
| Title | ปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม: ประเด็นปัญหาทางปรัชญา (Artificial Intelligence and Moral Responsibility: A Philosophical Problem) |
| Publisher | คณะสังคมศาสตร์ มหาวิทยาลัยนเรศวร |
| Publication Year | 2566 |
| Journal Title | วารสารสังคมศาสตร์ มหาวิทยาลัยนเรศวร |
| Journal Vol. | 19 |
| Journal No. | 2 |
| Page no. | 31-57 |
| Keyword | ปัญญาประดิษฐ์, ความรับผิดชอบทางจริยธรรม, การเป็นผู้กระทำการทางจริยธรรม, ช่องว่างของความรับผิดชอบทางจริยธรรม, Artificial Intelligence, Moral Responsibility, Moral Agency, Responsibility Gap |
| URL Website | https://so04.tci-thaijo.org/index.php/jssnu |
| Website title | https://so04.tci-thaijo.org/index.php/jssnu/article/view/262409 |
| ISSN | 2985-2811 (Print), 2985-282X (Online) |
| Abstract | ความก้าวหน้าของปัญญาประดิษฐ์ได้ก่อให้เกิดข้อถกเถียงเรื่องความรับผิดชอบทางจริยธรรม มนุษย์มีแนวโน้มที่จะใช้ให้ปัญญาประดิษฐ์ทำงานแทนตนเองมากขึ้น ในแง่หนึ่งปัญญาประดิษฐ์สามารถเรียนรู้และตัดสินใจได้เอง ทว่ามันก็ไม่สามารถรับผิดชอบทางจริยธรรมอันเป็นอิสระจากมนุษย์ได้ คำถามที่น่าสนใจก็คือว่า หากปฏิบัติการของปัญญาประดิษฐ์นำไปสู่ผลร้ายทางจริยธรรมที่คาดไม่ถึง เราจะทำความเข้าใจเรื่องความรับผิดชอบทางจริยธรรมของปัญญาประดิษฐ์ได้อย่างไร บทความวิจัยนี้ใช้วิธีการวิจัยเชิงเอกสาร มีวัตถุประสงค์มุ่งศึกษาและวิเคราะห์ประเด็นปัญหาเรื่องปัญญาประดิษฐ์กับความรับผิดชอบทางจริยธรรม และอภิปรายเพื่อนำเสนอมุมมองทางปรัชญาของผู้เขียนเพื่อพยายามแก้ปัญหาเรื่องช่องว่างของความรับผิดชอบทางจริยธรรม ผลการวิจัยมีข้อเสนอหลัก 2 ข้อ กล่าวคือ (1) ผู้เขียนสนับสนุนแนวคิดที่ว่าความรับผิดชอบทางจริยธรรมจำเป็นต้องยึดโยงกับการเป็นผู้กระทำการทางจริยธรรมในแบบที่ไม่ใช้กรอบคิดแบบดั้งเดิม กล่าวคือ ไม่ได้กำหนดความรับผิดชอบไปที่ปัจเจกบุคคลและคุณลักษณะแบบมนุษย์ของปัจเจกบุคคล และ (2) สืบเนื่องจากเหตุผลแรก ผู้เขียนจึงเสนอว่ามโนทัศน์เรื่องการเป็นผู้กระทำการทางจริยธรรมในฐานะที่เป็นปฏิสัมพันธ์ร่วมกันระหว่างมนุษย์กับปัญญาประดิษฐ์เป็นสิ่งจำเป็นต่อความรับผิดชอบทางจริยธรรม แม้ว่าแนวคิดนี้จะยังคงมีแนวโน้มยึดโยงอยู่กับการเป็นผู้กระทำการ และความเป็นสาเหตุซึ่งสอดคล้องกับวิธีคิดแบบมองย้อนกลับหลัง แต่เราก็ควรพยายามปรับให้แนวคิดนี้ให้มีความสอดคล้องกับวิธิคิดเรื่องความรับผิดชอบทางจริยธรรมในแบบที่มองไปข้างหน้าด้วยเช่นกันThe progress of artificial intelligence (AI) has raised debates on moral responsibility. Humans tend to delegate tasks and practices to AI. Whereas AI can learn and make decision by itself, it cannot be morally responsible and independent from the human being. The crucial question is how can we understand and articulate the moral responsibility of AI if the practices of AI have unintended consequences or are morally wrong? According to a documentary research method, this article aims to study and analyze the problem of AI and moral responsibility. It then discusses and proposes arguments attempting to tackle the problem of the responsibility gap. As a result, it offers two thesis statements: (1) it advocates that moral responsibility demands moral agency in a non-traditional approach, i.e., it does not locate responsibility in the individual and its human-like attribution. Furthermore, (2) it argues, following the previous statement, that the concept of moral agency as a mutual interaction between humans and AI is necessary for moral responsibility. Although the argument tends to deal with agency and causalitywhich is consistent with a backward-looking approach, we should also adjust it to consider moral responsibility in terms of a forward-looking approach. |