5 правил керування непередбачуваними наслідками Штучного Інтелекту. Частина 2

 

Минулої статті ми торкнулися цікавої та важливої ​​теми, яка стосується всіх представників бізнесу. Пропонуємо розглянути п’ять правил, яких повинні дотримуватися керівники при впровадженні RL-агентів у реалізацію своєї стратегії.

Щоб проілюструвати, як агент у фінансових послугах може змінити поведінку людини в гірший бік, а як і, при правильному налаштуванні, він може допомогти запобігти проблемі – ми покажемо на прикладі.

1. Припустіть, що ваш агент RL впливатиме на поведінку непередбаченими способами. Допустимо, компанія створила агента для прискорення перевірки якості бухгалтерських транзакцій. До того ж наголошуючи на потенційних помилках, які алгоритм оцінив як високо ризиковані, і ставлячи їх у чергу на оцінку аналітиком.
Значно скоротивши загальну кількість помилок, які аналітикам необхідно було перевірити, алгоритм суттєво скоротив час перевірки. Але ми були здивовані, побачивши підозріло швидкий час розгляду найскладніших помилок. Це мало зайняти в аналітиків більше часу, а не менше. Така ситуація не могла не насторожити.

2. Систематично оцінювати відхилення від очікуваного. На сьогодні деякі компанії оцінюють, як їхні RL-агенти впливають на поведінку людей. Почніть з того, що регулярно запитуйте у своїх фахівців з обробки даних дані про зміни у поведінці, які можуть бути пов’язані з діяльністю агентів. Якщо ви побачите відхилення від очікуваного, копніть глибше.

3. Опитайте користувачів, клієнтів або інших людей про їхню реакцію на результати роботи агентів RL. Хоча ті, на кого направлені дії агента RL, можуть не знати, що на них впливає ШІ, ви все одно можете оцінити їхню реакцію. Повернемося до ситуації зі швидким аналізуванням помилок.

Виявилося, що більшість співробітників помилково вважали, що агент виконує більшу частину роботи щодо забезпечення якості цих помилок, ніж це було насправді. Співробітники надто покладалися на досвід агента.
До речі, така надмірна довіра до ШІ – одна з причин, через яку люди припускаються помилок ШІ. Вони вважають, що ШІ більш здатний ніж люди, і передають йому надто багато прав.

4. Якщо агент заохочує небажане поводження, змініть його політику. Щоб оптимізувати прагнення агентів до отримання прибутку, більшість команд ШІ постійно коригують політику агентів, змінюючи пари стан-дія.

5. Якщо небажана поведінка зберігається, змініть функцію прибутку. Коригування пар стан-дія агента часто може стримати небажану поведінку, але не завжди. Коли інші заходи не допомагають, змініть ціль агента.

Висновки

Давати агенту штучного інтелекту ціль збільшення переглядів будь-якими засобами, включаючи використання вразливих аспектів психіки людини, небезпечно та неетично. У випадку із соціальними платформами, можливо, є спосіб скоригувати пари стан-дія агентів, щоб зменшити цю шкоду.

Хоча у випадку із соціальними мережами це може здатися радикальним рішенням, але воно, здавалося б, витає у повітрі.Після рішення Ради з нагляду Facebook підтримати заборону компанії на відвідування сайту колишнім президентом Трампом за порушення правил, Френк Паллоне – голова Комітету з енергетики та торгівлі Палати представників, написав у Твіттері:

– Дональд Трамп відіграв велику роль у допомозі Facebook у поширенні дезінформації, але незалежно від того, є він на платформі чи ні, Facebook та інші соціальні медіаплатформи з такою ж бізнес-моделлю знайдуть способи виділити контент, що викликає розбіжності, щоб збільшити доходи від реклами.

Наглядова рада сама звернула увагу на бізнес-модель Facebook, порадивши компанії провести всебічний огляд потенційного внеску у розповідь про фальшування виборів та загострення напруженості, які вилилися в насильство в США. Це має бути відкритий аналіз дизайну та політичного вибору, зробленого Facebook, який дозволяє зловживати його платформою. Погодьтеся, є про що задуматися і не лише платформ соціальних мереж.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься.