Чи зробив штучний інтелект життя зручнішим? Баладжі та A16z обговорюють, як скоротити витрати часу на перевірку контенту штучного інтелекту?

Генеративний ШІ значно підвищує швидкість виробництва інформації, але також викликає ігноровану тривогу «Розрив верифікації (Verification Gap)». Від колишнього технічного директора Coinbase Баладжі до співзасновника OpenAI Карпаті, і до венчурного гіганта a16z, всі попереджають: «Витрати на верифікацію, пов'язані з продукцією ШІ, стають найбільшим вузьким місцем і ризиком нової ери.

Balaji: "Вартість верифікації" для користувачів ШІ стала справжнім вузьким місцем.

Колишній технічний директор Coinbase Баладжі минулого місяця написав, що процес використання ШІ можна розділити на два етапи: «введення підказки (prompting)» та «перевірка виходу (verifying)».

Перший може зробити кожен, достатньо просто набрати кілька рядків тексту; але другий є більш складним, вимагає професійних знань, терпіння та логічного мислення, щоб оцінити, чи виникли помилки або "галюцинації (hallucination)".

AI ПРОМПТИНГ → AI ПЕРЕВІРКА

Масштабування підказок AI, адже підказка — це просто введення тексту.

Але перевірка ШІ не масштабується, оскільки перевірка виходу ШІ включає набагато більше, ніж просто введення тексту.

Іноді ви можете перевірити візуально, тому штучний інтелект відмінно підходить для фронтенду, зображень і відео. Але…

— Balaji (@balajis) 4 червня 2025 року

Він зазначив, що ця різниця добре обробляється на зображеннях або відео, адже людське око природно вміє оцінювати візуальний контент. Але як тільки справа доходить до коду, технічних статей або логічного міркування, перевірка стає досить складною:

Найважливіше питання щодо використання ШІ полягає в тому, як я можу перевірити, що вихідні дані цієї моделі ШІ є правильними, при цьому витрачаючи мінімум коштів? Нам потрібні інші інструменти або продукти для перевірки змісту в інших не візуальних сферах.

Він додав: «Для користувачів AI-верифікація так само важлива, як і AI-підказки.»

Карпати: Штучний інтелект прискорив творчість, але не зменшив процес верифікації.

Співзасновник OpenAI та батько автопілота Тесла Андрій Карпатий поділився поглядом Баладжі, зазначаючи, що сутність творчості є процесом, що складається з двох етапів, які повторюються: «генерація (generation)» та «дискримінація (discrimination)»: «ти зробив мазок (генерація), але також потрібно відійти і подумати, чи дійсно цей мазок покращує твір (дискримінація).»

Він вважає, що великі мовні моделі (LLM) значно зменшили витрати часу на «генерацію», дозволяючи користувачам миттєво отримувати величезні обсяги виходу, але зовсім не допомогли зменшити витрати та обсяг роботи на «оцінку». Це особливо серйозно для коду:

LLM дуже легко генерує десятки або навіть сотні рядків коду, проте інженерам все ще потрібно читати, розуміти та перевіряти всі логіки та потенційні помилки рядок за рядком.

Карпаті зазначив, що це насправді те, що займає найбільше часу у більшості інженерів, це так званий «перевірочний розрив (Verification Gap)». Штучний інтелект прискорив процес створення, але ця вартість часу безпосередньо перенесена на перевірку.

(Від фінансових консультантів до секретарів: виклики довіри до AI-агентів: чи можемо ми довіряти автономним рішенням штучного інтелекту?)

a16z: Кризу довіри епохи генерації потрібно заповнити за допомогою криптографічних технологій.

Відомий венчурний фонд a16z підходить до проблеми з точки зору системи та індустрії. Вони вважають, що технології штучного інтелекту прискорять поширення «фальшивої інформації», оскільки поріг для генерації низький і важко перевірити, мережа буде переповнена великою кількістю підробленого контенту. a16z стверджує, що довіру слід інженерно розробити, а рішення полягає у впровадженні криптографічних технологій, такі як:

Проведення криптографічної обробки даних, отриманих поетапно від AI (hashed posts)

Створення з використанням ідентичності, перевіреної за допомогою блокчейну (crypto IDs)

Завдяки відкритості та можливості відстеження даних в ланцюзі, створюється надійний контентний ланцюг.

Ці практики не лише забезпечують незмінність та перевірку інформації, але й створюють бар'єри для достовірності контенту в епоху ШІ, що має стати важливим перетином між криптографічними технологіями та сферою ШІ.

(Messari спеціальний аналіз: Як протокол Mira через децентралізований механізм консенсусу робить AI більш чесним?)

Від підказок до перевірки можливостей, нові навички та вимоги епохи ШІ вже сформувалися.

Наразі генеративний ШІ приносить експоненціальне зростання інформаційної продуктивності, але без такої ж високоефективної здатності до верифікації користувачі можуть потрапити в пастку витрат часу на операції та забруднення фальшивою інформацією.

Отже, основними навичками в нинішню епоху AI є не лише вміння точно формулювати запити, а й здатність ефективно й економно перевіряти результати роботи AI. Незалежно від того, чи це взаємна перевірка моделей AI, чи професійні інструменти верифікації, це стає надзвичайно важливим.

Чи зробив штучний інтелект життя зручнішим? Balaji та a16z обговорюють, як скоротити часові витрати на перевірку контенту штучного інтелекту? Вперше з'явилося на Chain News ABMedia.

MORE-1.04%
WHY-10.16%
PROMPT2.6%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити