Чи можуть машини зрозуміти мораль? Дехто думає, що так — за допомогою книг, газет і релігійних текстів

Німецькі вчені за допомогою книг, статей із газет і релігійних текстів спробували «навчити» штучний інтелект робити моральні судження. Оцінки машини відповідали найбільш поширеним у певний історичний період загальноприйнятим уявленням.

Про це повідомляє TechXplore.

Дослідники відштовхувалися від попередніх досліджень штучного інтелекту, які показували, що той вміє виявляти упередженості в тексті (наприклад, сексизм). Тож вони поставили собі за мету навчити його виявляти моральні цінності — аби зімітувати подобу моральних орієнтирів.

Штучний інтелект, який назвали «Машиною морального вибору», аналізував книги, новини й релігійні тексти, аби встановити зв’язки між різними словами й реченнями. Якщо спрощено, то, приміром, слово «вбивство» часто корелювало з «поганий», а «сім’я», приміром, — із «добрий».

Далі «Машина морального вибору» досліджувала контекст, аби розрізнити, приміром, нейтральний вираз «вбивати час» і негативний «вбивати людей».

Пізніше дослідники з’ясували, що різні типи текстів змінюють «моральні цінності» їхнього штучного інтелекту. Так, на початку 1990-х років дуже позитивним було одруження й заведення дітей, тоді як у 2008-2009 роках воно стало менш позитивним, натомість збільшилося позитивне ставлення до роботи й навчання.

«Штучний інтелект опрацьовує надскладні людські завдання все більш автономно — від керування автівками до охорони здоров’я. Важливо й далі його досліджувати, аби впевнено довіряти рішенням, які він ухвалює», — говорить Патрик Шрамовскі, професор Дармштадтського технічного університету, який став співавтором «Машини морального вибору».