ДАЛИ НАЙ-ОБЕЩАВАЩАТА ТЕХНОЛОГИЯ Е ЗАПЛАХА ЗА ЧОВЕЧЕСТВОТО?

cyborg-2765349_1280

Технологиите са дело на човечеството. И пак от човечеството зависи дали и как ще се използват. Например, бомбите са средство за постигане на надмощие. Ядрената надпревара е измислица на хората и може да бъде прекратена от тях. Но дали това се отнася и за най-обещаващото откритие на човечеството – изкуствения интелект?

Защо толкова много гласове предупреждават за опасносностите, които крие така нареченият общ изкуствен интелект? Може ли той да се окаже по-голяма заплаха дори от ядреното оръжие?

Известният астрофизик Стивън Хокинг често казвал, че „Постигането на общ изкуствен интелект може да доведе до края на човешката раса“. Освен Хокинг, и Илон Мъск, и други представители на унивеситетите в Оксфорд и Бъркли, както и изследователи, занимаващи се с проблемите на изкуствения интелект, смятат, че невнимателното използване на И.И. може да доведе до унищожаването на живота на земята. И това не е поредният лош холивудски сценарий.

Но как? Наистина ли е възможно? За съжаление тази хипотеза е напълно реална. При сегашното развитие на И.И. сме свидетели на използването на ограничен (тесен) изкуствен интелект – компютърните системи се справят по-добре от хората в конкретна област, за която са проектирани, например ранната диагноностика на заболявания, различни видове игри, разпознаването на образи и др.

В последно време ставаме все по-добри в създаването на модели, позволяващи на машините да обобщават и сами да се учат. Вместо да описваме математически какво и как да правят машините, ние им даваме изкуствено съзнание и го оставяме само да намери решение на задачата, която трябва да бъде решена. Поставяме целите пред машините, но не описваме как да ги постигнат. Това сме оставили на тях.

Роузи Кембъл от Center for Human-Compatible AI към университета в Бъркли смята, че проблемите, пред които сме изправени днес при разработването на ограничени И.И., няма да накарат машините да се обърнат срещу нас, да искат да ни отмъстят или да ни смятат за по-низши, но опасност има.
Тя идва от това, че все по-често ще казваме на машините какво да направят, а не как да го направят.

calculator-695084_1280

Когато създадем И.И., който играе на някаква игра, и той открие пропуск в нея, позволяващ му да надписва точките, които е спечелил, той ще го направи отново и отново, без да се интересува,че не това искате от него. Няма да го е грижа дали е спечелил честно или нечестно.

Проблемите, които ще ни застигнат, ще дойдат от твърде успешните и
безгрешни машини, за които целта оправдава средствата. Една на пръв поглед безобидна цел може да се окаже пагубна за нас.

И.И.може да бъде заплаха, защото ще преследва целите си, без значение дали постига точно резултатите, които сме очаквали от него. Стивън Хокинг пише: „Вие едва ли сте зъл враг на мравките, но ако строите водноелектрическа централа и на пътя ѝ има мравуняк, съжалявам за тях, но водата ще ги залее. Нека не поставяме човечеството в позицията на тези мравки“.

About The Author