S&P 500 ^GSPC 5,305.93 +0.02%
Nvidia NVDA $1,142.25 +7.28%
Tesla TSLA $176.17 -1.71%
Alphabet GOOG $177.54 +0.69%
Apple AAPL $191.00 +0.53%
Microsoft MSFT $429.17 -0.23%
Meta META $477.50 -0.15%
Amazon AMZN $180.97 +0.12%

Експертите призовават за спиране на по-нататъшното развитие на изкуствения интелект. Какво ги кара да го правят?

Teodor Aleksandrov
3. 4. 2023
1 min read

Изкуственият интелект преживява огромен бум напоследък. Всички са толкова развълнувани от тази технология, че дори не си дават сметка за рисковете, които могат да настъпят в бъдеще. В момента експерти по изкуствен интелект бият тревога, като предупреждават, че компаниите трябва да започнат да се занимават с рисковете, преди да е станало твърде късно.

В неотдавнашно отворено писмо, озаглавено "Pause Giant AI Experiments: An Open Letter" (Спиране на гигантските експерименти с изкуствен интелект: отворено писмо ), експертите по изкуствен интелект (ИИ) призовават компаниите, работещи в тази област, временно да спрат разработването на генеративни системи за ИИ. В писмото, подписано от над 1000 души, сред които Елон Мъск, Стив Возняк, Еван Шарп, Крейг Питърс и Йошуа Бенгио, се подчертава несигурността относно потенциалното бъдещо въздействие на резултатите от тези разработки.

В писмото експертите предлагат шестмесечна пауза за разработване на регулаторни политики и процедури за безопасно развитие на технологиите за изкуствен интелект. Паузата следва да се прилага само за обучение на системи за ИИ, които са по-мощни от GPT-4 - генеративния модел на ИИ, разработен от OpenAI. Ако призивът на експертите не бъде чут, в писмото се предлага правителствата да наложат мораториум.

Сред компаниите, които инвестират в разработването на генеративен ИИ и свързаните с него технологии, са гиганти като Microsoft $MSFT-0.2%, Alphabet $GOOGL+0.6%, Alibaba $BABA-0.7% и Baidu $BIDU-0.1%. В писмото на експертите се призовава за протоколи за безопасност и гарантиране на положително въздействие и управление на риска. Резултатът от писмото може да доведе до спиране на дейността на компаниите и формулиране на нови политики или поне до обмисляне на потенциалните въздействия и предприемане на необходимите действия.

GPT-4 като фактор за потенциални проблеми

GPT-4, който беше въведен наскоро, впечатли потребителите с възможностите си за водене на разговори, писане на песни и обобщаване на дълги документи. Реакцията на този модел накара конкуренти като Alphabet Inc да ускорят разработването на подобни големи езикови модели. Експерти по изкуствен интелект обаче призовават за забавяне на развитието, докато не разберем по-добре последиците и потенциалните вреди за обществото.

Институтът "Бъдещето на живота", организация с нестопанска цел, финансирана предимно от фондация "Мъск", базираната в Лондон група Founders Pledge и Фондацията на общността в Силициевата долина, която публикува отворено писмо, смята, че мощните системи за ИИ трябва да се разработват само когато сме сигурни, че ефектът от тях ще бъде положителен, а рисковете - управляеми. Организацията също така призовава за създаването на регулаторен орган, който да гарантира, че разработването на ИИ служи на обществения интерес.

Елон Мъск, съосновател на OpenAI и един от експертите, подписали писмото, е известен с предупрежденията си за потенциалните рискове, свързани с разработването на ИИ. Той казва, че е от съществено значение да се създадат общи протоколи за сигурност, разработени от независими експерти, и призовава разработчиците да работят с политиците по въпросите на управлението.

Изпълнителният директор на OpenAI, Сам Алтман, и главните изпълнителни директори на Alphabet и Microsoft, Сундар Пичай и Сатя Надела, не са сред подписалите отвореното писмо. Въпреки това писмото представлява важна стъпка към започване на дискусия за бъдещето на изкуствения интелект и потенциалните рискове, които той крие.

Възможни последици от писмото

Писмото може да има няколко възможни последици. Една от тях е, че компаниите и изследователските институции, участващи в разработването на ИИ, биха могли временно да спрат дейността си и да преосмислят своите практики. Този сценарий би позволил на експертите и регулаторните органи да направят преглед на досегашните разработки и да предприемат необходимите мерки за гарантиране на безопасността и устойчивостта в областта на ИИ.

Алтернативно, писмото би могло да доведе до по-голяма осведоменост относно потенциалните рискове, свързани с разработването на ИИ, и необходимостта от създаване на протоколи за безопасност и регулаторни процедури. Това би позволило на компаниите да се съсредоточат повече върху създаването на по-безопасни и по-етични системи за ИИ, които имат положително въздействие върху обществото.

И накрая, писмото би могло да вдъхнови правителствата и международните организации да обмислят въвеждането на регулаторни мерки и мораториуми за разработването на ИИ. Това би гарантирало, че разработването на ИИ се извършва в съответствие с най-добрите интереси на обществото и се управлява така, че да се сведат до минимум потенциалните отрицателни въздействия.

Независимо от резултата от отвореното писмо е ясно, че дебатът за безопасността и етиката на разработването на ИИ става все по-належащ. Тъй като системите за ИИ като GPT-4 стават все по-разпространени в ежедневието, е необходимо да се съсредоточим върху това как тези технологии могат да се използват за благото на обществото, без да се нарушават неприкосновеността на личния живот, сигурността или интересите на хората.

Един пример, който показва как системите за ИИ могат да се използват в полза на обществото, е използването на GPT-4 за решаване на екологични, здравни или икономически проблеми. От друга страна, важно е да се вземат предвид възможните рискове, като например злоупотреба с технологията за разпространение на дезинформация, манипулиране на общественото мнение или увеличаване на неравенството в достъпа до технологии.

Отвореното писмо "Спиране на гигантските експерименти с изкуствен интелект" е призив за размисъл относно пътя, по който ще поеме развитието на изкуствения интелект. Остава въпросът дали може да се постигне консенсус между експертите, компаниите и правителствата. Важно е обаче учените, лидерите в индустрията и политиците да се съсредоточат върху съвместната си работа, за да намерят начини за осигуряване и регулиране на развитието на ИИ, които да са в интерес на човечеството.

ПРЕДУПРЕЖДЕНИЕ: Не съм финансов съветник и този материал не служи като финансова или инвестиционна препоръка. Съдържанието на този материал е чисто информационно.


Предайте статията нататък или я запазете за по-късно.