Незамінний помічник чи загроза людству: майбутнє штучного інтелекту

Ілюстрація згенерована ШІ

(Ілюстрація згенерована ШІ)

Багатьма штучний інтелект (ШІ) зараз використовується в якості асистента для розвʼязання механічних завдань. Можливо, в недалекому майбутньому штучний мозок почне роботу з розв’язання проблем людства.

ШІ навчається дуже швидко. Нагадаю, перша модель найпопулярнішого ШІ, чату GPT була випущена всього 4 роки тому. Всього 27 років тому ШІ вперше переміг людину в шахи. Навіть за умов його штучного обмеження (наприклад користування чатом GPT, або Bard від Google дозволено лише особам, які досягли 18 років) складно уявити, що буде навіть через три роки.

Деякі теорії стверджують, що ШІ стане настільки розумним, що зможе перевершити людський інтелект, що може призвести до небезпечних наслідків. Через здатність постійно самонавчатись це може призвести до спроб створення нової зброї, витоку конфіденційної інформації, порушення авторських прав, та багатьох інших проблем, пов’язаних з ШІ.

Також одна з основних проблем ШІ полягає в тому, що його навчання залежить від якості та кількості отриманих ним даних. Зважаючи на те, скільки ШІ знаходяться у вільному доступі, будь-хто з будь-якою метою, може давати інформацію для навчання.

З більш прогнозованого - втрата робочих місць через роботизацію, що вже почала втілюватися в реальність, як, наприклад, магазини, які працюють без жодного продавця, що з’явилися ще у 2021 році, або повністю роботизовані конвеєрні виробництва в Китаї, машини та вантажівки без водіїв, написання тексту, книжок. Звичайно, не всі робочі місця будуть втрачені через роботизацію. Натомість це також створює нові робочі місця, наприклад, для розробки, обслуговування та контролю за роботами, так само і навчання цим професіям також створить робочі місця.

Здебільшого через ризики швидкого розвитку ШІ у цьому році Ілон Маск, а також СЕО компанії OpenAI, що розробляє чат GPT, закликали про призупинення розробки ШІ на два роки задля перевірки безпеки.

Зараз багато людей використовують штучний інтелект для розв’язання побутових питань, написання текстів, створення графіка на день, планів дієти тощо. Тут є ризик стати жертвою ефекту галюцинації чату GPT, тобто неправдивої, або неточної інформації, яку генерує штучний інтелект. Тому слід ставитися до роботи зі штучним інтелектом відповідально та з розумом.

Також обмеження та регулювання роботи ШІ, як, наприклад, обмеження в базі даних, для чату GPT, де йому наразі доступні лише події до 2022 року, можуть запобігти не тільки можливим проблемам у роботизації, а й не дадуть ШІ стати надто розумним. Але враховуючи те, що окремих ШІ з кожним днем стає тільки більше, цей процес можливо стане неможливим контролювати.
 

Марк Лунін

Публікації у розділі "Блоги" відображають винятково точку зору автора. Позиція редакції Інтента може не збігатися з позицією автора.

Поділитися