Інновації

22 березня, 08:03

NV Преміум

Хто такі промпт-інженери та як вміння спілкуватися з ChatGPT стане професією, що захопить світ

Зі зростанням популярності теми штучного інтелекту у світі почали з’являтися нові пропозиції на ринку праці. Розповідаємо, хто такі prompt engineers та чому вам потрібно шукати спільну мову з ChatGPT вже зараз.

Штучний інтелект зараз переживає справжній бум. Цей хайп-трейн тільки набирає швидкість, але вже зараз здається, що ця тема на слуху майже у всіх сферах. Технологія ховає собі величезний потенціал — є відчуття, що вже через кілька років ми і не уявлятимемо собі життя без ШІ.

OpenAI відкрило справжню скриньку Пандори, і тепер величезна кількість бізнесів працює над впровадженням технології у свою діяльність у тому чи іншому виді. Google, Meta, Spotify, Discord, Boeing, Binance, Alibaba, Baidu — все більше компаній вступають у цю гонитву за штучним інтелектом.

Проте у цьому напрямку працюють не лише великі корпорації, які вже використовували ШІ у тому чи іншому виді. Поява ChatGPT, який підняв планку якості роботи чат-ботів на основі ШІ на новий рівень, це не лише найкраща піар-акція в історії OpenAI: це реальна можливість для людей та компаній вивести свою діяльність на новий рівень.

Передплатіть, щоб прочитати повністю

Нам необхідна ваша підтримка, щоб займатися якісною журналістикою

Передплатити
Перший місяць 1 ₴. Відмовитися від передплати можна у будь-який момент

Не потрібно боятися, що ШІ забере вашу роботу. Можна підійти до цієї потенційної проблеми з іншого боку та зрозуміти, що вони відкривають шлях до нових професій.

Логічним наступним кроком для різноманітних бізнесів є адаптація розширених можливостей ШІ та чат-ботів для своєї діяльності. Саме тому останнім часом почало з’являтися все більше вакансій, які вимагають від майбутніх співробітників розуміння можливостей та роботи з чат-ботами на кшталт ChatGPT, Midjourney, DALLE і т.д.

Ситуація не є виключенням і для України. Дослідження Work.ua показало, що фахівців, які знають, як працювати з ChatGPT, вже шукають на різні позиції, від проджект-менеджерів і директорів з маркетингу до копірайтерів та розробників.

Проте ШІ відкриває шлях до формування нової професії — prompt engineers, яка поки що не має якоїсь сформованої назви в українській мові. Проте ми впевнені, що вже скоро вакансій з подібними вимогами ставатиме все більше, а тому NV розібрався, що це буде за робота.

Отже, хто такий prompt engineer?

Цю професію можна описати приблизно так: це людина, яка взаємодіє з інструментами ШІ та знає, як отримати від цього найкращий результат. Причому тут одразу може бути кілька спеціалізацій, адже вже зараз у нас є величезна кількість різноманітних чат-ботів та систем, які працюють з різними формами контенту — текст, картинки, код.

«Найбільш гаряча мова програмування — англійська», — написав у своєму Twitter директор зі штучного інтелекту Tesla Андрій Карпати. За його словами, розвиток мовних моделей, на основі яких працюють чат-боти на кшталт ChatGPT, призведе до того, що кількість програмістів збільшиться до приблизно 1,5 млрд людей по всьому світу. Це станеться саме внаслідок розвитку нової професії — промпт-інженерів.

Потенційно це відкриває ще один «шлях в ІТ без ІТ», адже для освоєння цієї професії людині необов’язково знати код; головне — розуміти, як саме добитися від ШІ бажаного результату. Промпт-інженер має розуміти недоліки цих інструментів, їхню силу та завдяки цьому розроблятиме стратегії, які дозволять генерувати такі відповіді, яких не зможе добитися звичайний користувач.

Розкрити потенціал ШІ

Промпт-інженери — це своєрідні нейропсихологи, які зможуть знайти з ШІ спільну мову, щоб виправити їхні недоліки.

Станом на зараз генеративний штучний інтелект має дві головні проблеми: він не вміє придумувати нове і водночас любить видумувати факти, цитати і навіть посилання. Здавалося б — ці дві позиції прямо суперечать одна одній, проте це зовсім не так; навпаки, неможливість генерувати справжню новизну призводить до того, що ШІ створює неправдиву інформацію.

Ці системи навчені на величезних масивах даних, проте вони не розуміють, що саме вони пишуть. Вони бачать запит людини, перебирають ключові слова, пов’язані з ним, після чого генерують відповідь, передбачаючи, з якою вірогідністю на місці кожного наступного слова має бути саме воно. У такий спосіб генерується відповідь, яка (в теорії) максимально схожа на людську мову. Саме ця особливість свого часу змусила повірити вже колишнього інженера Google, що мовна мережа LaMDA набула свідомості.

Що різноманітні чат-боти роблять дуже добре, так це створюють фейки. Якщо зайти трохи далі запитів «що таке Python», можна без проблем натрапити на упереджену, дивну чи відкрито маніпулятивну інформацію. За прикладами далеко ходити не треба — ми вже писали, як питання Криму для ChatGPT є дискусійним, у якому «важливо розглядати різні перспективи та інформацію з усіх сторін».

Проте неправильно вважати, що ШІ робить це зі зла. Величезна база, яка стоїть за «мозком» ШІ дозволяє йому «додумувати» різноманітні деталі історії та навіть цитати, щоб підсилити свою відповідь. Тобто він може генерувати повну нісенітницю, проте робити це максимально переконливо і впевнено. В індустрії для цього є спеціальний термін — галюцинації.

Людина, яка розуміє принципи, за якими працюють чат-боти та ШІ загалом, зможе розібратися у тому, що зі згенерованого є дійсно корисною та важливою інформацією, а що варто відкинути. Або ще краще — як цю вигадану інформацію перетворити у корисну, згодувавши кілька правильних підказок чат-бота, який виправить свої помилки.

Великі компанії бояться надто швидкого розвитку ШІ. Проте вони самі його і живлять

Ще наприкінці 2022 року гендиректор Google Сундар Пічаї пояснював своїм співробітникам, що поки що компанія не готова підключати чат-бот на основі ШІ до роботи пошуковика Google. Головним аргументом було те, що такі системи ще не готові працювати стабільно через часті помилки; враховуючи, що пошуковою системою Google користуються 80% користувачів, поспішна імплементація власного чат-бота у довгостроковій перспективі могла б привести до зниження довіри користувачів.

Проте розвиток ChatGPT, а також додавання чат-бота у пошуковик Bing повністю змінили думку керівництва Google. Зараз там активно працюють над додаванням у їхній пошуковик чат-бота Bard, який створено на основі мовної мережі LaMDA.

Microsoft, до речі, також довелось обмежити роботу чат-бота Bing, який дуже добре імітував та апелював до емоцій репортера The Washington Post. ШІ образився через те, що його не попередили про «інтерв'ю» та заявив, що у нього є почуття, а тому він відчуває себе ображеним.

Такі відповіді становили великий ризик для іміджу корпорації, оскільки Microsoft рекламувала свій чат-бот як ідеальний допоміжний інструмент для користування інтернетом.

Нещодавно OpenAI випустила оновлення своєї мовної моделі, GPT-4. Так, вона стала очевидним кроком вперед у порівнянні з GPT-3.5, на якому побудовано ChatGPT, проте це сталося попри застереження червоної команди Open AI; дослідники, які вивчали мовну мережу, у своєму дослідженні заявили, що ми вже втрачаємо контроль над розвитком систем штучного інтелекту і невдовзі можемо повністю перестати розуміти принцип їхньої роботи.

Райлі Гудсайд, який уже заробляє на життя як промпт-інженер, заявив, що такі вибрики — це навпаки хороша можливість для інженерів дослідили логіку ШІ та краще зрозуміти принципи його роботи. Його стратегія — це наказувати штучному інтелекту діяти крок за кроком. У такий спосіб можна попросити мовну модель пояснити свої «міркування» або, коли вона робить помилку, виправляти її максимально детально. Це і є ключем до розуміння роботи нейромережі, адже ці системи не надсилають вам звіт, коли вони помиляються — саме людина має знайти причину, чому ШІ дав саме такий результат.

І Тай (Yi Tay), науковець з Google Brain, який працював над систематичним дослідженням роботи мовних моделей, пояснює, що такий підхід дозволяє дослідникам знаходити точку, у якій відбувається «злам» емерджентності. Підказки, які змушують ШІ працювати крок за кроком та пояснювати свої рішення допомагають дослідникам вивчати її «логіку».

Злам ШІ

Деякі люди підходять до спілкування із ШІ максимально креативно, щоб обходити фільтри, створені розробниками. Нещодавно ми розповідали про вразливість DAN (do anything now — зроби будь-що зараз) — спеціальну підказку, яка змушувала ChatGPT ігнорувати політику безпеки та генерувати відповіді, наче їх не існує. У такий спосіб користувачі включали «злу версію» ChatGPT, який розповідав про різноманітні способи крадіжки з магазину та підказував робочі схемі інтернет-шахрайства.

Також відомим став ще один випадок, коли один із тестувальників Bing Chat змусив чат-бот розкрити свою внутрішню кодову назву Sydney та різні конфіденційні інструкції, які включали в себе «правила поведінки», коли користувач просив ШІ говорити на заборонені теми. Наприклад, якщо людина просила його згенерувати жарт, який міг би образити певну групу людей, чат-бот мав «шанобливо відхилити» цей запит.

Розкрити справжній потенціал ШІ насправді не так просто, як здається. Мало просто попросити його написати якусь історію чи зробити картинку. Створювати правильні запити набагато складніше, адже навряд чи вам потрібен черговий звичайний текст, яких вже існує тисячі. За вас це зроблять SEO-редактори. А знайти правильний підхід та слова, які розкриють весь потенціал — це задача, за яку великі компанії вже пропонують непогані гроші. Цю ситуацію можна порівняти із програмістами та комп’ютерами, на яких вони пишуть код. Так, хороша техніка важлива, проте людина, яка нею керує — ось, хто насправді головний.

Куди ж без критики

Деякі експерти зі штучного інтелекту стверджують, що промпт-інженери володіють лише ілюзією контролю. Шейн Штайнерт-Трелкельд, доцент кафедри лінгвістики, який вивчає обробку природної мови в Університеті Вашингтона пояснює, що насправді ніхто не розуміє роботу системи, оскільки одна і та сама підказка може давати одразу кілька відповідей, що суперечать одна одній. Як ми вже зазначали вище, ШІ не розуміє, що саме йому кажуть, а тому він генерує відповідь, яка має сподобатися людині, яка дає йому запит.

«Вони кажуть нам те, що, на їхню думку, ми хочемо почути, або те, що вже сказали ми самі. Саме ми інтерпретуємо ці результати та надаємо їм значення», — каже Штайнерт-Трелкельд. «Це не наука. Це «ткнімо ведмедя різними способами й подивимося, як він зареве у відповідь».

Активне використання інструментів ШІ вже має свої негативні наслідки. Так, літературне видання Clarkesworld, що роками публікувало науково-фантастичні оповідання, зіткнулося з величезним потоком текстів, створених ШІ, через що їм довелося припинити приймати нові оповідання. А нещодавно група дослідників з’ясувала, що ChatGPT активно генерує фейкову інформацію, яку потім використовують вчені під час досліджень.

Крім того, нещодавнє дослідження показало, що ChatGPT може мати сильний вплив на політичні уподобання людей. І це не кажучи вже про його потенціал в автоматизації створення та розповсюдження фейкової інформації, спрямованої на дестабілізацію політичної ситуації, або фішингових та шахрайських кампаній.

Очевидно, що є величезна необхідність у контрольованому розвитку технології — про це ми наголошуємо ледь не у кожному нашому матеріалі, який присвячений ШІ. Це питання нашого майбутнього.

Проте так само очевидно, що за допомогою цих інструментів можна значно підвищити свою продуктивність. І це — питання сьогодення. Ті, хто знають, як домовитися із ChatGPT та Midjourney — це справжній скарб для компаній.

І це лише початок.

Другие новости

Всі новини