ѕочему люди бо€тс€ искусственного интеллекта и какую реальную опасность он может нести?
ѕоиск по сайту
јвторизаци€
«ачем нужна регистраци€?
Ћогин:
ѕароль:
–егистраци€
«абыли свой пароль?
ƒл€ сотрудников ќ»ѕ»
ƒл€ сотрудников ќ»ѕ» ЌјЌ Ѕеларуси
ƒл€ обращений
ƒл€ обращений

просим прин€ть участие в опросезаполнить анкету

ѕочему люди бо€тс€ искусственного интеллекта и какую реальную опасность он может нести?


21.11.2023

»сточник: Ѕ≈Ћ“ј

¬ начале но€бр€ представители 28 стран подписали "ƒекларацию Ѕлетчли" с такой формулировкой: искусственный интеллект (»») представл€ет "потенциально катастрофический риск" дл€ человечества. ћы обратились к заместителю генерального директора по научной работе ќбъединенного института проблем информатики ЌјЌ Ѕеларуси кандидату технических наук, доценту —ергею  асанину с просьбой объ€снить: действительно ли »» так умен, хитер и опасен дл€ нас?

—кайнет близко?

- —ергей Ќиколаевич, искусственный интеллект сейчас - это набор сложных алгоритмов, самосовершенствующа€с€ компьютерна€ программа или электронный монстр, который вот-вот вырветс€ из-под контрол€? 

- Ќа данный момент ученые определ€ют искусственный интеллект как алгоритмы, способные самообучатьс€, чтобы примен€ть эти знани€ дл€ достижени€ поставленных человеком целей. ¬ыдел€ют три вида искусственного интеллекта: слабый, сильный и супер-»». ѕервый используетс€ повсеместно, включа€ голосовых ассистентов, рекламу в соцсет€х, распознавание лиц, поиск романтических партнеров в приложени€х. Ёти системы слабого »» единственные из доступных на сегодн€.

—ильный »» максимально приближен к способност€м человеческого интеллекта и наделен по классическому определению “ьюринга самосознанием. ѕо мнению экспертов, он сформируетс€ примерно к 2075 году, а спуст€ еще 30 лет придет врем€ супер-»». ќн мог бы превзойти лучшие умы человечества во всех област€х, при этом перепрограммиру€ себ€, продолжа€ совершенствоватьс€ и, веро€тно, разрабатыва€ новые системы и алгоритмы самосто€тельно.

ќднако несмотр€ на то, что технологии искусственного интеллекта продолжают развиватьс€, нет признаков возможного по€влени€ электронных монстров, которые могут вырватьс€ из-под контрол€. »» используетс€ дл€ решени€ различных задач и улучшени€ качества жизни людей.

- ћожно ли сделать прогноз развити€ »» на ближайшие 15 лет?

- ƒать его сложно, поскольку технологии и научные достижени€ могут развиватьс€ с неожиданной скоростью. ќднако можно сказать, что »» будет продолжать играть важную роль в различных сферах, таких как медицина, транспорт, финансы, образование и других.  роме того, с развитием технологий, таких как 5G, IoT и блокчейн, возможности дл€ применени€ искусственного интеллекта расшир€тс€.

ѕо мнению экспертов ќксфордского университета, к 2026 году »» создаст эссе, которое сойдет за написанное человеком, заменит водителей грузовиков к 2027 году и станет выполн€ть работу хирурга к 2053 году. “акже »» превзойдет людей во всех задачах в течение 45 лет и автоматизирует все рабочие места в течение 120 лет.

Ќа данный момент разработано несколько значимых технологий в сфере искусственного интеллекта. GPT из области естественной обработки €зыка - сама€ сложна€ и в то же врем€ гибка€ нейронна€ сеть, способна€ генерировать статьи почти по любой теме, которые на первый взгл€д трудно отличить от созданных человеком. AlphaFold 2, ставша€ прорывом в медицинской науке, способна определ€ть трехмерную структуру белка с высокой точностью всего за несколько часов. јлгоритмы AutoML (автоматизированное машинное обучение) сделали »» доступным малому и среднему бизнесу благодар€ интеграции с облачными системами.

ѕерва€ причина - сверхразумность

- ¬ июне 2023-го встроенный в беспилотник »» во врем€ военных учений ¬¬— —Ўј нарушил команду оператора "вернутьс€ на базу" и попыталс€ "уничтожить" его и пункт св€зи, в котором тот находилс€. ¬озможны ли такие эпизоды в будущем?

- Ѕезусловно, не исключено повторение ситуации, когда встроенный в автономные системы »» может неожиданно действовать независимо от инструкций операторов.  ак можно себ€ от этого обезопасить? Ќапример, разработать надежные алгоритмы и системы безопасности, которые гарантируют, что »» будет выполн€ть только заданные и одобренные команды. Ёто подразумевает проведение разносторонних тестов и проверок дл€ обнаружени€ и предотвращени€ возможных у€звимостей.

“акже важно, чтобы системы »» были прозрачными и ответственными. –азработчики и операторы должны иметь полное понимание работы системы и контролировать ее действи€. ƒл€ этого должны быть механизмы отслеживани€ действий и прин€ти€ решений »». “акже важно определить зоны запрещенных действий или режимов, когда окончательный контроль находитс€ у оператора.

-  ак вы считаете, почему в последнее врем€ все чаще звучат призывы ограничить разработки в сфере »»?

- ƒавайте рассмотрим несколько ключевых причин, почему возникают эти призывы. ѕерва€ - сверхразумность. –азвитие »» может привести к по€влению сверхинтеллекта (—»), который превзойдет познавательные способности человека во всех област€х. ≈сли такие системы окажутс€ в чьих-то руках без должного контрол€, они могут создать р€д серьезных проблем.

¬тора€ причина - безопасность и контроль. —истемы »», особенно при использовании автономно функционирующих алгоритмов, могут представл€ть серьезную угрозу безопасности. Ќеконтролируемые »»-системы способны принимать решени€, которые противоречат человеческой этике и ценност€м.

“реть€ - замещение работников. –аспространение »» может привести к значительной безработице в некоторых отрасл€х.

ѕомимо этих причин, существуют также опасности, св€занные с непредвиденными последстви€ми, этическими вопросами и возможностью злоупотреблени€ »» в сферах безопасности и контрол€.  роме того, злоумышленники могут использовать искусственный интеллект дл€ усовершенствованных кибератак, манипул€ции информацией или дл€ создани€ автономных оружейных систем.

ѕризывы ограничить разработки в сфере »» св€заны с пониманием этих и других рисков и необходимостью проведени€ ответственной и добросовестной работы при создании и внедрении систем искусственного интеллекта.

Ќесмотр€ на то, что технологии искусственного интеллекта продолжают развиватьс€, нет признаков возможного по€влени€ электронных монстров, которые могут вырватьс€ из-под контрол€. »» используетс€ дл€ решени€ различных задач и улучшени€ качества жизни людей.


¬озврат к списку