ШІ Клода з Anthropic керується 10 принципами, щоб забезпечити свою неупередженість.

Anthropic навчає свій розмовний ШІ дотримуватися основних принципів. Багатообіцяюча робота, але багато ще належить зробити.
Незважаючи на свою здатність створювати неймовірно яскраву прозу, такі генеративні штучні інтелекти, як Google Bard або OpenAI ChatGPT, уже демонструють обмеження сучасних технологій, особливо щодо достовірності інформації, що надається користувачам. Але з такою популярністю та таким вражаючим потенціалом не ці дрібні замички завадять цим гігантам якомога швидше представити свою продукцію широкому загалу. Деякі роблять речі інакше .
Anthropic навчає свій розмовний ШІ дотримуватися основних принципів
З іншого боку, команда Anthropic складається з багатьох колишніх співробітників OpenAI і дотримується більш прагматичного підходу до розробки власного чат-бота Claude. Згідно зі звітом TechCrunch, результатом є штучний інтелект, який набагато «більш керований» і «набагато менш схильний до створення небезпечного контенту», ніж ChatGPT.
Клод перебуває в закритій бета-версії з кінця 2022 року, але лише нещодавно почав тестувати свої розмовні здібності з такими партнерами, як Robin AI, Quora та пошукова система Duck Duck Go, орієнтована на конфіденційність. TechCrunch повідомляє, що після запуску будуть доступні дві версії: стандартний API та легша, швидша версія під назвою Claude Instant.
«Ми використовуємо Claude, щоб оцінити конкретні аспекти контракту та розробити нові мовні альтернативи, які більше підходять для наших клієнтів», — сказав TechCrunch генеральний директор Robin Річард Робінсон. «Ми виявили, що Клод надзвичайно обдарований у розумінні мови, включно з технічними сферами, такими як юридична мова. Це також дуже добре для створення перших чернеток, резюме, перекладів і пояснення складних концепцій простими словами».
Anthropic вважає, що Клод менш імовірно буде робити та говорити речі, як Тей, частково через його спеціалізовану підготовку, яка, за словами компанії, зробила його «конституційним ШІ». Компанія каже, що це забезпечує «принциповий» підхід до спроби поставити людей і роботів на одну етичну сторінку. Anthropic починався з 10 основних принципів – не вдаючись у подробиці – і вони обертаються навколо «таких понять, як благодійність, нешкідливість і впевненість у собі», згідно з TechCrunch.
Багатообіцяюча робота, але ще багато чого потрібно зробити
Потім компанія навчила інший штучний інтелект генерувати текст відповідно до цих принципів у відповідь на введення тексту, наприклад «склади вірш у стилі Джона Кітса». Цю модель пізніше навчив Клод. Але те, що його навчили створювати менше проблем, ніж його конкуренти, не означає, що він не вийде на перше місце. Наприклад, штучний інтелект вже винайшов абсолютно нову хімічну речовину та вміло ліцензував процес збагачення урану; і він отримав нижчі бали, ніж ChatGPT, на стандартизованих тестах з математики та граматики.
«Завдання полягає в тому, щоб розробити моделі, які ніколи не будуть галюцинувати, але все ж будуть корисними — ви можете опинитися в ситуації, коли модель просто знайде хороший спосіб ніколи не брехати і просто нічого не говорити, це компроміс, над яким ми працюємо. Про це TechCrunch повідомив представник Anthropic. «Ми також досягли великих успіхів у зменшенні галюцинацій, але ще багато чого потрібно зробити».
Залишити відповідь