31.05.2021
Підсумки розробки теми дослідження:
Екзистенційні ризики для людства та технологічний прогрес
31.05.2021
Підсумки розробки теми дослідження:
Екзистенційні ризики для людства та технологічний прогрес
Першою темою дослідження групи "Технології та суспільство" було визначено питання екзистенційних ризиків для людства, що пов'язані із технологічним прогресом, зокрема загрози від розвитку систем штучного інтелекту.

Гостем робочого засідання групи виступив Яан Таллінн, програміст і філантроп, співрозробник Skype, співзасновник Центру з вивчення екзистенційних ризиків в Кембриджі.

В інтерв'ю засновнику групи Олені Бойцун Яан Таллінн навів широке визначення екзистенційного ризику як катастрофічного зменшення максимального потенціалу людства. Експерт розподіляє екзистенційні ризики на дві категорії — природні та технологічні. «Якщо ми хочемо передбачити майбутнє планети, найважливіший фактор для цьогорозуміти, які в нас будуть технології», — вважає Яан Таллінн.

Під час першого робочого засідання групи під модеруванням Олени Бойцун учасники продовжили розмову щодо класифікації екзистенційних ризиків, сучасного стану світового розвитку розробки штучного інтелекту, регулювання технологічної сфери, а також питання етики як етики розробника, так і складності навчання ШІ людських цінностей та уявлення про універсальні права людини.
На думку Яана Таллінна, вже через 20-30 років світ може наблизитися до поворотного моменту, коли з'являться компетентні штучні системи, які людство не зможе контролювати. «ШІ — наче інопланетний корабль, який наближається до нашої планети. Проте, важливим уточненням є те, що це ми, люди, створюємо умови взаємодії. З таким ступенем свободи нам потрібно докласти максимум зусиль для того, щоб результат був позитивним для майбутнього людства».

Майбутнє, у якому люди та метатехнологія ШІ співіснуватимуть, несе чимало нових викликів. Провідні особистості сучасності, зокрема Ілон Маск та Стівен Хокінг,називають ШІ ймовірною великою загрозою для цивілізації вже у найближчій перспективі. Яан Таллінн на зустрічі групи зазначив: «Ви можете розділити майбутнє на три категорії. Все буде погано незалежно від того, що ми робимо. Все буде добре незалежно від того, що ми робимо. А десь посередині майбутнє, яке ми можемо формувати, яке залежить від того, що ми робимо. Моя позиція полягає в тому, що ми можемо спокійно ігнорувати крайнощі. Я — прагматичний оптиміст».

На думку засновника групи "Технології та Суспільство" Олени Бойцун, наразі питання дослідження екзистенційних ризиків від розвитку штучного інтелекту потребує залучення широкого спектра фахівців та соціуму в цілому: «Має сенс подумати над тим, як в цілому зробити процеси більш інклюзивними і зрозумілими, за участю всіх зацікавлених сторін, та долучити питання екзистенційних ризиків розвитку штучного інтелекту до суспільного порядку денного».

До та після робочої зустрічі серед членів групи проводилося опитування щодо їх ставлення до екзистенційних ризиків, пов'язаних із ШІ. Згідно результатів опитування, після всебічного обговорення теми 86% учасників групи вважає що розвиток ШІ може призвесті до загрози існування людства. Розвиток ШІ також був визначеним як найвірогідніший ризик, що може призвести до найбільш значущих негативних наслідків для існування людства.
Тема дослідження: Екзистенційні ризики
Які з наведених ризиків, на вашу думку, є найвірогіднішим та може призвести до найбільш значущих негативних наслідків для існування людства?
(До робочої зустрічі групи)
31%
Зміна клімату
25%
Ядерна війна
25%
Розвиток ШІ
13%
Нічого з перерахованого
6%
Природні катаклізми
(Після робочої зустрічі групи)
17%
Зміна клімату
8%
Ядерна війна
50%
Розвиток ШІ
25%
Нічого з перерахованого
0%
Природні катаклізми
Корисні посилання за темою:
© 2021-2023 Tech&Society Комунікаційна група. All rights reserved.