Робот не може завдати шкоди людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди.
Другий закон
Робот повинен підкорятися наказам людей, за винятком випадків, коли такі накази суперечать Першому закону.
Третій закон
Робот повинен захищати своє існування до тих пір, поки такий захист не суперечить Першому або Другому закону.
Ми всі дуже поважаємо Азімова. І як плодовитого автора художньої літератури, і як професора біохімії. Однак часто виникає питання - а чи дійсно ці закони можуть бути використані при розробці реального штучного інтелекту? У наші дні?
І ви знаєте, думка фахівців така - ні.
"Три закони робототехніки Азімова витончені. Але одночасно це просто нісенітниця собача ", - прямо заявив одного разу ЗМІ робототехнік і письменник- Деніел Вілсон.
Коли Азімов писав свої закони, він не міг з великою точністю передбачати, як саме люди будуть використовувати штучний інтелект (ШІ). Сьогодні машини перемагають нас при грі в шахи або карти. Вони водять наші машини і роблять нам операції. Але замість того щоб мати самосвідомість, як припускав Азімов, вони просто працюють за складними алгоритмами, запрограмованими їх людськими творцями. У всесвіті Азімова все трохи не так. Там машини, що володіють штучним інтелектом, - наші слуги. Тобто є окремими, самостійними істотами. У реальному ж світі вони є лише продовженням нас самих. Тобто просто розширюють наші можливості. Це означає, що будь-які закони, які керують машинами зі штучним інтелектом, повинні також поширюватися і на людей, які їх створюють.
Загальні системи
Багато вчених, сучасні філософи і навіть цілі організації розглядали, якими можуть бути ці закони. Дослідники з компанії Gilead Amit, наприклад, використовували закони Азімова як відправну точку. І у них вийшло приблизно таке формулювання:
Робот не може завдати шкоди людині. Або дозволити одній людині завдати шкоди іншій. Робот не повинен видавати себе за людину, якщо тільки відмінність між людиною і машиною не буде розмита.
Дослідники з Google встановили ще більше правил. Одне з них таке:
ЙІ не повинен без необхідності завдавати шкоди іншим ШІ, переслідуючи свої цілі.
Ідеальний ШІ
Cambridge Consultants, провідна консалтингова компанія в області STEM, виклала свої критерії ідеального ШІ у зв'язці з людиною, тобто як єдиної системи, у звіті за 2018 рік. Ось вони:
Відповідальність: повинна існувати конкретна людина, відповідальна за наслідки поведінки автономної системи. Це необхідно не тільки для здійснення правового захисту, а й для надання зворотного зв'язку, відстеження результатів і впровадження змін.
Поясненість: завжди повинна бути можливість пояснити людям, яких це стосується (часто непрофесіоналам), чому поведінка така, яка вона є. Це життєво важливо для забезпечення довіри.
Точність: джерела помилок необхідно ідентифікувати, відстежувати, оцінювати і, при необхідності, усувати.
Прозорість: повинна бути забезпечена можливість тестувати, аналізувати (публічно або в приватному порядку), критикувати і оскаржувати результати, отримані від автономної системи. Результати аудиту та оцінки мають бути доступні для громадськості та пояснені.
Справедливість: спосіб використання даних повинен бути розумним і поважати конфіденційність, це допоможе усунути упередження і запобігти вкоріненню інших проблемних форм поведінки.
Погодьтеся, такий підхід трохи відрізняється від того, що пропонував Азімов. І тому, враховуючи все, що ми дізналися про штучний інтелект за багато десятиліть, що минули з тих пір, як знаменитий перейшов написав свої «Три закони робототехніки», ми можемо з упевненістю зробити висновок, що вони, звичайно, застаріли. Хоча й породили багато провокаційних сюжетів у фантастиці. Але краще назавжди залишити їх у книгах....
Принаймні до тих пір, поки ми не почнемо використовувати роботів в якості slug.