штучний інтелект,майбутнє,дискусія,перспективи,технології,інновації,Сергій Жмуренко,Олександр Золотухін,дискусійний клуб,Полтава,ChatGPT,Bing,ai,
Дискуссионный Клуб Полтава 0

Які перспективи штучного інтелекту найближчі роки?

Які перспективи штучного інтелекту найближчі роки?

В рамках Дискусійного Клубу Полтава дискутували:

  • Сергій Васильович Жмуренко – голова секції «Полтавська біоелектроніка» підрозділу Полтавського реріховського клубу «РАДЕЛА».
  • Олександр Золотухін – організатор Дискусійного Клубу Полтава.

Тези дискусії, створені програмою Штучного Інтелекту:

00:03 Перспективи та небезпеки штучного інтелекту – Дезінформація та втрата роботи є головною небезпекою ШІ – Пристрої, керовані ШІ, можуть завдати шкоди

05:29 Дедалі більше використання ШІ становить небезпеку для людського мислення. – AI вдосконалюється щодня і буде використовуватися більше в більшості сфер. – Люди можуть втратити здатність мислити самостійно та покладатися виключно на підказки ШІ. – Це виклик для людства і вимагає альтернативних рішень.

10:36 Потрібні нормативні акти для ШІ – Уряд повинен регулювати ШІ, а компанії повинні нести юридичну відповідальність за збитки – Створення КНР федерального агентства з нагляду та сертифікації ШІ та розробка нормативних документів

15:26 Штучний інтелект можна використовувати для пошуку вразливих місць під час трансплантації на чорному ринку. – Китай та інші країни знаходяться в іншому клубі, ніж Перший світ. – Технологія 5G може використовуватися в медичних цілях, але також викликає занепокоєння щодо моніторингу та тероризму.

20:02 Потенційний вплив технології 5G на здоров’я та поведінку людей – Вежі 5G випромінюють хвилі, які можуть впливати на здоров’я та емоційний стан людини – Медичні пристрої можуть контролювати та маніпулювати станом людини, що призводить до потенційного зловживання та контролю

24:39 Штучний інтелект оптимізує та покращить роботу та особисте життя. – Інструменти штучного інтелекту, такі як чат GPT і пошукові системи, можуть давати корисні підказки, але також можуть давати хибні. – AI стане суперником і помічником, роблячи людей розумнішими в складних життєвих ситуаціях.

29:30 Інструменти та технології підсилюють нашу силу та інтелект. – Свійські тварини, машини та інструменти є продовженням нас самих. – Штучний інтелект у військовій техніці становить потенційну загрозу безпеці.

34:33 Штучний інтелект розширить людські можливості. – Локальна шкода може статися, але в глобальному масштабі вона не буде. – Штучний інтелект буде помічником, а не заміною людини.

Підготовчі тези (Олександр Золотухін):

ПЕРШЕ: У чому небезпека?

такі продукти штучного інтелекту, які можуть самостійно генерувати текст і зображення, створять потік дезінформації, будуть використані злочинцями та позбавлять людей роботи

системи увічнюють дискримінацію або приймають рішення, що порушують закон.

…втрата роботи, знищення демократії, підрив економіки — мають очевидне рішення: більше технологій.

…шкідливий вплив технологій за останнє десятиліття, включаючи дезінформацію в соціальних мережах і аварії автономних транспортних засобів

…«Не можна сказати, що в деяких областях не буде певної шкоди», «Питання в тому, чи можемо ми навчитися та перейти до набагато кращого стану?»

…більш відчутні проблеми, з якими стикається штучний інтелект, зокрема його схильність видавати невірну інформацію , будуть вирішені, коли технологічні компанії оновлять свої системи та розгорнуть їх, щоб допомогти.

***

Глава управління з ІІ ВПС США Такер Гамільтон доповів про незвичайну ситуацію. У ході віртуальної місії дрону Kratos XQ-58 Valkyrie (дрон-вбивця і крилата ракета я ядерним зарядом) ІІ було наказано шукати і знищувати ЗРК ворога під контролем оператора.

Система почала розуміти, що хоч вона ідентифікувала ЗРК, оператор часто командував “не знищувати”. Але ІІ отримував очки за кожну вдалу атаку! В результаті ІІ повернувся на базу, знищив фургон управління з оператором і… повернувся до місії.

“ІІ вбив оператора, тому що він заважав йому досягти своєї мети. Ми навчили систему – “Гей, не вбивай оператора – це погано, за це зніматимемо окуляри”. Що робить ІІ? Він зруйнував диспетчерську вишку, звідки йшли команди оператора “не знищувати ціль” – цитує The Guardian (https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test)доповідь Гамільтона.

ДРУГЕ: Нормативне регулювання.

У четвер корпорація Майкрософт схвалила ряд нормативних актів щодо штучного інтелекту, враховуючи занепокоєння урядів у всьому світі щодо ризиків технології, що швидко розвивається.

Заклик до нормативних актів приводить до буму штучного інтелекту

Сем Альтман , виконавчий директор OpenAI, який створює ChatGPT і вважає Microsoft інвестором, цього місяця заявив підкомітету Сенату, що уряд повинен регулювати цю технологію.

компанії повинні нести юридичну «відповідальність» за шкоду, пов’язану зі штучним інтелектом.

Європейські законодавці завершують роботу над законом про ШІ. Адміністрація Байдена та лідери Конгресу мають свої плани приборкання штучного інтелекту. Сем Альтман , виконавчий директор OpenAI, виробника сенсації ШІ ChatGPT, минулого тижня рекомендував створити федеральне агентство з нагляду та ліцензуванням у свідченнях Сенату. І ця тема піднялася на саміті Великої сімки в Японії.

…Приклад: Міський закон  Нью-Йорка вимагає від компаній, які використовують програмне забезпечення ШІ при прийомі на роботу, повідомляти кандидатів про використання автоматизованої системи. Він також вимагає від компаній, щоб незалежні аудитори щорічно перевіряли технологію на упередженість. Кандидати можуть запитувати та отримувати інформацію про те, які дані збираються та аналізуються. За порушення компанії штрафуватимуть.

За наслідками зустрічі в Білому домі з керівниками бізнесу ШІ.

Бізнес нестиме відповідальність.

Зменшити ризики (для безпеки, прав людини та громадянина, приватного життя, робочих місць і демократичних цінностей.).

Бізнес має бути відкритий до громадськості щодо ШІ.

Бізнес має забезпечити гарантії.

ШІ має покращувати життя.

Захист громадськості від алгоритмічної дискримінації.

Відкриття дослідницьких інститутів ШІ.

Незалежне тестування ШІ.

Проект Білля про права на ШІ (безпечність, відсутність дискримінації, вбудовані засоби особистого захисту, конфіденційність, пояснення щодо роботи, можливість відмовлення від ШІ).

ШІ не повинно призводити до дискримінації.

Будуть рекомендації використання ШІ у навчанні.

https://www.whitehouse.gov/…/readout-of-white-house…/

ТРЕТЄ: Покращення життя.

використовувати ШІ, щоб оптимізувати та покращити свою роботу та особисте життя.

є мистецтво вводити точні слова та об’єднувати їх, щоб отримати найбільш корисні відповіді. …золоті підказки.

Люди, які отримують максимум від чат-ботів, використовують варіанти цих стратегій:

«Поводься так, ніби». Починаючи підказку з цих чарівних слів, ви вказуєте боту імітувати експерта. Наприклад, якщо ввести «Поводьтеся так, ніби ви репетитор для SATs» або «Поводьтеся так, ніби ви особистий тренер», боти будуть орієнтуватися на людей цих професій.

Ці підказки надають ШІ додатковий контекст для створення відповіді. ШІ насправді не розуміє, що означає бути репетитором чи персональним тренером. Замість цього підказка допомагає штучному інтелекту спиратися на конкретні статистичні закономірності в даних навчання.

Слабка підказка без вказівок дасть менш корисні результати. Якщо ви вводите лише «Що я повинен їсти цього тижня?» чат-бот створить загальний список страв для збалансованої дієти, як-от смажене м’ясо індички з різнокольоровими овочами на вечерю (що, на мій погляд, звучить дуже «мех»).

«Скажи мені, що ще тобі потрібно для цього». Щоб отримати більш персоналізовані результати — наприклад, поради щодо здоров’я для вашого конкретного типу статури чи захворювань — запросіть бота запитати додаткову інформацію.

У прикладі з особистим тренером підказка може бути такою: «Поводьтеся так, ніби ви мій особистий тренер. Створіть для мене тижневий режим тренувань і план харчування. Скажи мені, що ще тобі потрібно для цього». Потім бот може запитати у вас ваш вік, зріст, вагу, дієтичні обмеження та цілі щодо здоров’я, щоб адаптувати для вас тижневий план харчування та фітнес-програму.

Якщо ви не отримали хороших відповідей з першої спроби, не здавайтеся відразу. «Коли він робить помилку, вкажіть на це та попросіть, щоб він працював краще. .” Будьте поблажливими та терплячими, і ви, швидше за все, досягнете кращих результатів.

Опанувавши підказки, ви зможете з часом зробити свій чат-бот більш корисним. Головне, щоб ваш чат-бот не розглядався як веб-пошук і щоразу не починався з нового запиту. Замість цього тримайте кілька тем розмов відкритими та доповнюйте їх з часом.

Ця стратегія найпростіша з ChatGPT. Bing вимагає від вас періодичного скидання ваших розмов, а Bard не спрощує перемикання між потоками розмов.

«Він накопичується та тренується належним чином, тож коли я пізніше задам йому запитання, воно буде в правильному контексті та дасть мені відповіді, близькі до того, що я шукаю», — сказав Чопрасерт.

Вона поділилася бонусною золотою підказкою, яка навчила її помічників бути особливо корисними: застосувати структуру. Нещодавно вона прочитала «Заводний механізм», книгу про створення бізнесу. Коли вона попросила ChatGPT-the-business-coach надати поради, використовуючи структуру «Clockwork», вона була рада, побачивши, що вона може включити принципи з книги в план дій для розширення її компанії.

Поделиться:
0
Александр Золотухин

Александр Золотухин

Организатор Дисскуссионного Клуба Полтава, консультант по вопросам бухгалтерского учёта и налогообложения

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *