Ставши киборгами, чи зможемо ми захистити свій мозок від злому?

03.07.2017 | 13:49
Швидкий розвиток сфери мозок-машинних інтерфейсів і нейропротезування поступово підводить нас до революції в методах лікування та підтримки паралізованих людей. У той же час ці технології в майбутньому можуть знайти собі більш універсальне застосування і стати відправною точкою для подальшої еволюції людства і його переходу в новий вид - кіборгів. Але перед тим, як ми досягнемо таких висот, нам необхідно переконатися в тому, що подібні нейронні пристрої є абсолютно надійними, безпечними і повністю захищеними від зовнішнього впливу - хакерський атак, якщо простіше.
 
З мріями про наше світле кібернетичне майбутнє дослідники з женевського Центру Вісса з біо- і нейроінжінірінгу в Швейцарії (Wyss Center for Bio and Neuroengineering) опублікували на порталі Science свою роботу «Help, hope, and hype: Ethical dimensions of neuroprosthetics». Завдання її авторів полягає не тільки в описі тих можливостей, які перед нами відкриє сфера нейротехнологій, але і в підвищенні суспільної уваги до тих небезпек, які можуть підстерігати нас на шляху до цього сверхвисокотехнологічного майбутнього. І важливо відзначити, що автори розробили кілька шляхів, які дозволять пом'якшити потенційні проблеми ще до їх виникнення.

Не відзначити швидкий розвиток нейротехнологій стає неможливим вже сьогодні. Інженерами і дослідниками ведеться активна розробка і вдосконалення мозок-машинних інтерфейсів, які дозволять паралізованим людям відновити контроль над своїми кінцівками, ампутантів - ефективно управляти роботизованими протезами, а пацієнтам з порушенням мовних функцій відновити здатність до комунікації за рахунок здатності передавати свої думки. Дивно, але вже зараз спостерігається великий прогрес в цьому напрямку. Вчені створили екзоскелет, який дозволяє людині з паралізованими нижніми кінцівками бити по м'ячу. Паралізовану лабораторну мавпу навчили керувати інвалідним кріслом за допомогою думок. Розроблюваний інтерфейс «мозок - мозок» дозволив людині управляти рухами кінцівок інших людей. Кожен такий технологічний прорив дозволяє нам потроху дізнаватися більше про мозок і про те, як він працює. Але ще більш важливо, що всі ці технології мають потенціал повернення ампутантам і паралізованим людям самостійності і незалежності.

Але у всіх цих технологій, на жаль, є і зворотна сторона. Як зазначає директор Центру Вісса Джон Донохью, навколо цієї області починають з'являтися серйозні етичні питання і тому саме час почати думати про те, яким чином нейропротезірованіе і сфера розробок мозок-машинних інтерфейсів можуть зіткнутися зі зловживанням в майбутньому, а також про те, як від цього захиститися.

«Не дивлячись на те, що ми як і раніше до кінця не розуміємо, як працює мозок, ми все ближче стаємо до моменту, коли зможемо адекватно декодувати певні мозкові сигнали. Тому ми повинні усвідомлювати, який вплив це може мати на суспільство», - коментує Донохью.

«Ми повинні уважно розібрати ймовірні наслідки життя пліч-о-пліч з напівінтелектуальними машинами, керованими людським мозком, і повинні мати готові розроблені механізми, які зможуть переконати нас в їх безпеці і відповідності нашим морально-етичним нормам».

Центр Вісса стурбований тим, що з більш широкою інтеграцією цих нейропристроів в наше повсякденне життя будуть розширюватися і можливості цих інструментів. Вони будуть ставати більш універсальними. Уже зараз мозок-машинні інтерфейси можна використовувати для того, щоб, керуючи роботизованою рукою, схопити чашку або, дивлячись на екран комп'ютера, вибрати певне слово в тексті. Але коли-небудь такі пристрої, тільки більш просунуті, будуть використовуватися як аварійним працівником для ліквідації небезпечної витоку газу, так і мамою дитини, у якої не вистачає зайвих рук, щоб заспокоїти свого малюка, що плаче.

Піди щось не так в цих випадках, наприклад, напівавтоматична роботизована рука робочого поверне не той кран або мати випадково упустить з роботизованих рук свою дитину, важливо задати собі питання: де починається і закінчується зона відповідальності і хто в таких випадках повинен бути визнаний винним? Юридичній системі майбутнього доведеться визначати, чи знаходиться це в зоні відповідальності виробника роботизованого вироби (в конструкції знайдений недолік або програмна помилка) або користувача (неправильне використання або зовнішній неавторизований вплив на цілісність конструкції виробу).

Щоб мінімізувати такі потенційні проблеми, автори роботи пропонують, щоб будь-яка напівавтономна система оснащувалася функцією автоматичного блокування та в разі неналежного або незапланованого використання активізувалася в обхід прямого каналу взаємодії «мозок - комп'ютер». Якщо штучна кінцівка почне виконувати дії, які користувач не мав на увазі для виконання, то такий «вимикач» зможе самостійно прийняти рішення про миттєву деактивацію системи, запобігаючи потенційної біди.

Ще одним аспектом, що непокоїть дослідників, є безпека приватного життя користувача і необхідність в захисті будь-якої особистої інформації, яка буде записуватися подібними системами. Досить імовірно, що системи, що базуються на інтерфейсі «мозок - комп'ютер», збиратимуть найрізноманітнішу інформацію про неврологічний статус користувача, після чого вона буде передаватися на комп'ютер. Природно, що така схема не може не викликати деякі побоювання з приводу захисту конфіденційних даних. На думку дослідників Центру Вісса, зібрана інформація може бути вкрадена і використана неналежним чином.

«Захист приватної неврологічної інформації про людей, повністю паралізованих і використовують інтерфейси« мозок - комп'ютер» в якості єдиного можливого засобу для комунікації із зовнішнім світом є особливо важливим», - каже Нільс Бірбаумер, старший науковий співробітник Центру Вісса.

«Успішне калібрування систем, що працюють з інтерфейсом «мозок - комп'ютер» буде, крім усього, залежати від того, як їх мозок буде реагувати на особисті питання, пов'язані з їхньою родиною, наприклад, ім'я, вік і сімейний стан дітей і так далі. Для всіх залучених в даному випадку людей повинна забезпечуватися сувора система захисту особистих даних, які будуть вимагатися для коректної роботи функцій пристрою. Йдеться як про інформацію, яка буде з'ясовуватися за допомогою особистих питань, так і неврологічної інформації пацієнта».

Ще сильніше дослідників з Центру Вісса турбує можливість цифрового злому підключеного до мозку пристрої зловмисниками, що може фактично поставити під загрозу життя користувача цього пристрою. За допомогою так званого «злому мозку» можуть проводитися зловмисні маніпуляції з мозковими імплантатами. Хакери зможуть отримати контроль над рухами роботизованих кінцівок людини.

Можливе рішення цієї проблеми буде включати підвищений рівень шифровки інформації, створення надійної мережевої безпеки і відкритого комунікаційного каналу між виробником вироби і його користувачем. Впровадження більшості з цих передбачуваних заходів буде досить непростим завданням, хоча б у зв'язку з імовірним відсутністю універсальних стандартів, які будуть застосовуватися в системах безпеки. Виходячи з цього, фахівці Центру Вісса вважають, що настає час вже зараз починати обмірковувати ті шляхи, які дозволять всім скоординуватися і виробити універсальні індустріальні стандарти по розробці та інтеграції необхідних захисних заходів.

«Деякі види побоювань, на які вказують автори роботи, можуть одного разу перетворитися в реальні проблеми. Тому я згоден з тим, що розробка якихось універсальних стандартів необхідна вже зараз, щоб потім ми не опинилися в ситуації, коли буде вже занадто пізно», - коментує Адам Кейпер, старший науковий співробітник Центру з вивчення етики та громадської думки.

І все ж Кейпер, який не брав участь в написанні обговорюваної роботи, частково скептично розглядає варіант, при якому хтось взагалі захоче зламувати інтерфейс «мозок - комп'ютер» повністю паралізованої людини або інтерфейс, що використовується в якості каналу зворотного нейронної зв'язку між людиною і тренувальними системами, тобто програмами, що використовують неінвазивні методи мозкового сканування, на зразок апаратів електроенцефалографії, систем для тренування своєї поведінки, зниження стресу, заняття медитації й і так далі.

«Яку вигоду з такого злому зможе отримати хакер? Та практично ніякої. Безумовно, побоювання з приводу безпеки і захисту особистої інформації можуть стати важливим предметом у майбутньому. Але мені здається, що це передчасна розмова».

Кейпер додає, що підвищений градус побоювань, пов'язаних з впровадженням інтерфейсів «мозок - комп'ютер» і напівавтономних роботів можна порівняти з тим рівнем хвилювання, яке виникає в суспільстві з приводу глобальної роботизації, що обіцяє стати наступним кроком розвитку нашого соціального життя. І хоч Кейпер погоджується з деякими аспектами, на його думку, в цілому проблема, принаймні зараз, здається більше надуманою, ніж реальною.

«Автори роботи вважають, що ми не повинні сильно підвищувати медичну грамотність населення та його обізнаність в особливостях функціонування нейрофізіологічних систем, які будуть використовуватися при подібних видах протезування. Але це ж маячня», - вважає Кейпер.

На його думку, суспільство саме навряд чи буде проявляти підвищений інтерес в подібних вузькоспеціалізованих темах. І все ж фахівець визнає, що часто досить складно підібрати потрібний час для початку суспільного діалогу з етичних і соціальних питань з приводу масової інтеграції нових технологій в наше повсякденне життя.

«Завжди є ризик зробити подібні заяви занадто рано, коли ми ще самі толком не до кінця будемо розуміти, чи дійсно перед нами знаходиться серйозна проблема. Такі прецеденти вже були. Взяти хоча б наноетіку, прихильники якої ще десятиліття тому, толком не розібравшись в питанні, підняли шум, заявивши, що просунуті нанотехнології з'являться мало не миттєво, і навіть спробували побудувати на цьому справжню академічну дисципліну. Але в підсумку виявилося, що розвиток нанотехнологій - це куди більш гнучкий і плавний процес».

«Я думаю, що з цієї точки зору авторів обговорюваної сьогодні роботи можна тільки похвалити. Похвалити за те, що свої побоювання вони висловлюють зовсім радикальними заявами, а цілком собі спокійними поясненнями », - коментує Кейпер.

Безумовно, дослідники Центру Вісса підняли вельми важливу тему. Рано чи пізно описувані сьогодні технології знайдуть шлях в наше повсякденне життя і будуть служити в якості підтримки не тільки недієздатним, а й цілком собі здоровим людям.

У перспективі неінвазивні інтерфейси «мозок - комп'ютер» можна буде використовувати для створення свого роду телекінетичного зв'язку з навколишнім світом, в якому ми своїми думками зможемо керувати освітленням в будинку або хоча б просто перемикати телеканали. Іншими словами, подальший прогрес буде здатний перетворити ці технології в технологічний вид телепатії. Що ж стосується дослідників з Центру Вісса, то їх ключовий посил полягає в тому, щоб ми були готові до цього і змогли запобігти використанню подібних технологій в зловмисних цілях.
майбутнє, кібернетика, робототехніка, хакери, людина
По матеріалам hi-news.ru
Стрічка новин: FacebookLiveJournalЯндекс

Коментарі (0)
Залиште коментар:Captchaвідновити код перевірки