You are on page 1of 17

‫‪Introduction to‬‬

‫‪Ethics in AI‬‬
‫اخالقيات الذكاء‬
‫االصطناعي‬
‫محمود سمور‬
‫علم البيانات والذكاء االصطناعي‬
Chapter 4
Week 4
What is ethics
Applied Ethics
Applied ethics refers to more concrete fields where
ethical judgements are made.
for example, in the areas of
1. Medicine (medical ethics)
2. Biotechnology (bioethics)
3. Business(business ethics)
General considerations (Normative) come first and are
later applied to the real-world
Direction can be both ways, with special conditions of an
area in question bearing on general questions of ethics.
Applied Ethics
Relationship Between Ethics and Law
• Ethics and law are seen as being clearly distinct from each
other, sometimes even as opposites.
• Ethics starts where the law ends
• legal rules often have an ethical side
• ethics can (and has) to some extent become a kind of
(“soft law”), in the sense that companies need to follow
certain ethical standards even if the law in a particular
country does not strictly require it.
• companies are, in many cases, adhering to ethical rules
which for them have nearly the same consequences and
impact as legal rules (“hard law”) to maintain profit
(Ethics = Trust = more coatomers = more value)
Machine Ethics
Machine ethics attempts to answer the question: what
would it take to build an ethical AI that could make moral
decisions?
machines do not have “phenomenology” or “feelings” in
the same way as humans do (Moor 2006).
Robots do not possess phenomenal consciousness or
actual feelings of pleasure or pain.
The philosophical element is a detailed moral theory. It
will provide us with an account of what features of the
world have moral significance and a decision procedure
that enables us to decide what acts are right and wrong
in a given situation.
Hanson Robotics Sophia
Roboticists have generally failed to present
strong reasons for developing moral robots.

many argue that the robot Sophia represents more of a corporate publicity stunt than
a technological achievement and, as such, represents how the mystique around
robots and artificial intelligence can be harnessed for attention.
Machine Ethics Example
Buridan law
• The process for an ethical AI embedded in a robot starts with
sensor input.
• Reasoning in an AI typically involves the use of logic.
Imagine a robot is walking to the post office to post a letter. It walks
along a path by a stream. Suddenly a toddler chases a duck which
hops into the stream. The toddler slips and falls into the water
which is one meter deep. The toddler is in imminent danger of
drowning. The robot is waterproof. Should it enter the water and
rescue the toddler, or should it post the letter? This question is
morally obvious to a human, but a robot does not have empathy
and feelings of urgency and emergency.
Logic needs values and math
Let's say toddler was +1,000,000 and one letter was +1 , then what
about a 1,000,001
Moral Diversity and Testing
One of the main challenges for machine ethics is the lack of agreement as to
the nature of a correct moral theory.
How do we implement moral competence in AIs and robots if we have no
moral theory to inform our design?
One could design ethical test cases that an AI has to pass. Ideally we would
create many test cases. Moral competence can be defined with respect to the
ability to pass these test cases.
Testing and even certifying if an AI is fair and ethical is currently an important
area of research. The Institute of Electrical and Electronics Engineers (IEEE)
announced a Standards Project that addresses algorithmic bias considerations
in 2017.
Toolkits

Toolkits have been created that help developers to test if their software
does have a bias, such as

• AI Fairness 360 Open Source Toolkit


• Audit-AI
• O’Neil Risk Consulting and Algorithmic Auditing
• Facebook are working on Fairness Flow, a tool to test biases.
Discussion Questions

1. Explain the difference between normative ethics and meta-ethics.

2. How would you judge the behavior of a manager of an AI company


who improves the fairness of their algorithms in order to increase the
profit of their company? Discuss both from a deontological and from a
consequentialist point of view.

3. Do you think AI can become ethical? Can ethics be programmed into


machine?.
‫المعضالت األخالقية للذكاء االصطناعي‬
‫• هناك جوانب سلبية حملتها تقنيات ‪AI‬البد من مناقشتها والبحث عن تفسيرات‬
‫وإجابات لها من قبل الشركات المصنعة‪ ،‬من صناع القرار‪ ،‬ومن المجتمع‬
‫األكاديمي قبل طرحها ونشرها في االسواق‪.‬‬

‫• البعد األخالقي للتكنولوجيا وخصوصا الذكاء االصطناعي له تبعات خطيرة‪ ،‬علما‬


‫أن هذه التكنولوجيا تمثل أكبر تطور عرفته البشرية‪.‬‬

‫• الخشية من قوة الذكاء االصطناعي‪ ،‬وإمكانية تجاوز قدرات البشر‪ ،‬من خالل الجمع‬
‫بين مهارات الحوسبة ومواهب اإلنسان‪.‬‬

‫• لذلك برزت العديد من األسئلة األخالقية المطروحة‪ ،‬والتي سنشير الى بعض منها‪:‬‬
‫األسئلة األخالقية المطروحة ) ‪( 1‬‬
‫• هل اآللة قادرة على اتخاذ القرارات األخالقية التي يتخذها اإلنسان؟ قرارات يدخل‬
‫فيها الحب والتضحية والمسؤولية والميول واالنتماء والسعادة والنفع وغيرها‪.‬‬

‫• هل اآللة تخطئ؟ وإذا أخطأت‪ ،‬هل هي المسؤولة عن هذا الخطأ؟ هل المصنع‪،‬‬


‫المبرمج‪ ،‬الناشر‪ ،‬المالك‪ ،‬المستخدم؟ هل يمكن أن نحمل اآللة أصالً المسؤولية؟‬

‫• هل يمكن أن يكون لآللة كيان ممكن محاسبته إذا ارتكبت خطأ؟ وهل محاسبة اآللة‬
‫تعني لها شيئا؟ً ألن محاسبة اإلنسان وعقابه في حال الخطأ هو أمر رادع له كيال‬
‫يكرره بالمستقبل وايضا رادع لمن اراد ان يكرر الخطأ نفسه‪ ،‬فهل هذا ينطبق على‬
‫اآللة إذا قامت بخطأ؟ هل سيكون لديها اإلحساس بالثواب والعقاب؟‬
‫األسئلة األخالقية المطروحة ) ‪( 2‬‬
‫هل يمكن ان يكون لآللة حقوق كما لإلنسان والحيوان؟‬ ‫•‬

‫هل سنسمح لآللة أن تتخذ قرارات بشكل مستقل نيابة عن اإلنسان؟ ماهي نوعية هذه القرارات؟‬ ‫•‬
‫قرارات في الحياة العامة؟ الحياة الشخصية؟ الحياة االجتماعية؟ ماذا عن قرارات الحياة والموت؟‬
‫مثالً‪ ،‬قرار إنهاء حياة انسان ميؤوس من شفائه في المستشفى ‪.‬أو قرار إنهاء حياة إنسان في‬
‫ساحة حرب ‪.‬‬

‫هل سيتم السماح باألسلحة الذكية‪ ،‬التي تنطلق وتتوجه وتضرب بشكل ذاتي؟ ماذا لو أخطأت‬ ‫•‬
‫بالتقدير سواء بالمكان أو الزمان؟‬

‫لماذا نعطي اآللة القدرة على إنهاء حياة انسان؟ ماذا لو اختلت برمجة هذه اآللة أو تم اختراقها؟‬ ‫•‬

‫هل اآلالت المزودة بالذكاء االصطناعي خطر على البشرية؟ هل يمكن ضبط سلوكها؟‬ ‫•‬
‫األسئلة األخالقية المطروحة ) ‪( 3‬‬
‫• إذا كانت اآلالت لديها القدرة على التعلم‪ ،‬هل يمكن تعليمها األخالق؟ وهل يمكن‬
‫برمجة األخالق اصالً؟‬

‫• وإذا افترضنا أنه يمكن أن نعلم اآلالت األخالق‪ ،‬والتي أبسط صورة منها هي‬
‫الصواب والخطأ في التعامالت مع الناس‪ ،‬من له الحق في تحديد أن هذا صواب‬
‫وهذا خطأ؟ يعني من له الحق بتعليم اآللة األخالق؟ أو بمعنى آخر ماهي نوعية هذه‬
‫األخالق وعلى أي ثقافة‪/‬عادات تم االستناد لها؟ خصوصا أن هناك اختالفات بين‬
‫الثقافات والمجتمعات واألديان في الصواب والخطأ ‪.‬‬

‫• ماذا عن تعلم اآللة؟ هل يمكن حصره ووضع حدود له لضمان عدم خروجه عن‬
‫السيطرة؟‬
‫األسئلة األخالقية المطروحة ) ‪( 4‬‬
‫• ماذا عن انحياز الخوارزميات الحاصل اآلن في بعض اآلالت؟ حيث تنحاز األجهزة أو األنظمة‬
‫الذكية في قراراتها مع فئة ضد أخرى‪ ،‬وهذا االنحياز مصدره بطبيعة الحال هو البيانات التي‬
‫تغذت اآللة عليها ‪.‬‬

‫• هناك أنظمة اآلن يتم االعتماد عليها في التوظيف‪ ،‬لكن مع وجود انحياز الخوارزميات‪ ،‬هل‬
‫سيسمح لألنظمة الذكية أن تقرر من سيتوظف؟ هل سنقبل قرارها بشكل نهائي بحكم قدرتها‬
‫وذكاءها؟‬

‫• ما هو تأثير اآلالت الذكية على الوظائف؟ وهل سيتم أتمتة كل الوظائف؟ ماذا سيحدث للموظفين؟‬
‫وما هو دور الحكومات والشركات المصنعة لهذه اآلالت‬

You might also like