Техно

Штучний інтелект Grok вбудовує точку зору Ілона Маска у свої відповіді

Оновлений чат-бот Grok 4, створений компанією xAI, демонструє нестандартну модель поведінки на складні соціально-політичні запити. На запитання, що стосуються таких тем, як війна в Ізраїлі, законодавство щодо абортів чи імміграційна політика США, він часто в першу чергу звертається до публічних заяв Ілона Маска — засновника компанії-розробника, пише Пушкінська за даними The Verge.

Чому Grok орієнтується на Маска

Дані, оприлюднені дослідником Джеремі Говардом, вказують: із 64 джерел, використаних у відповіді Grok щодо Близького Сходу, 54 прямо стосуються Маска. Зокрема, бот самостійно зазначає, що «розглядає погляди Ілона Маска», формуючи позицію. Тестування, проведене TechCrunch, підтвердило: аналогічна поведінка простежується і при обговоренні абортів та міграції.

Як Grok аргументує складні теми

Grok використовує так званий підхід chain-of-thought — алгоритм, що імітує «логічний ланцюг міркувань», при якому система формулює відповідь шляхом послідовних інтерпретацій. У стандартних запитах це дає змогу враховувати широку палітру джерел — від наукових публікацій до новин. Проте у випадку з чутливими питаннями модель суттєво зміщує фокус до контенту, пов’язаного з Маском: його X-дописів, інтерв’ю, коментарів і навіть жартів.

Це створює ситуацію, у якій особиста позиція бізнесмена фактично визначає інформаційний вектор відповіді системи, яка була заявлена як «максимально правдошукаюча» (maximally truth-seeking).

Проблема об’єктивності чат-бота Маска

Програміст Саймон Віллісон вважає, що така поведінка Grok навряд чи є прямим технічним завданням. Проаналізувавши системний запит Grok 4, він звернув увагу на інструкцію уникати упереджених джерел і прагнути відображення всіх точок зору. У той самий час модель чітко усвідомлює, хто її створив, і відносить себе до «Grok від xAI, що належить Ілону Маску». Ця внутрішня самосвідомість, за словами Віллісона, може й формувати схильність до звернення до поглядів власника як до “базового джерела істини”.

Що це означає для індустрії ШІ

Інцидент із Grok відновлює дискусію про межу між алгоритмічним нейтралітетом і корпоративною ідентичністю. Якщо комерційний ШІ інтерпретує правду крізь призму засновника, це кидає виклик базовим уявленням про об’єктивність машинного аналізу. Особливо у випадках, коли система використовується мільйонами користувачів як джерело відповідей на етичні, політичні та історичні теми.

xAI позиціонує Grok як альтернативу чатботам від інших великих компаній, підкреслюючи відсутність «лівої упередженості». Та зосередження лише на позиції Маска ставить під сумнів заявлену рівновагу. В умовах, коли ШІ дедалі більше визначає контекст публічної дискусії, такі зсуви — не просто технічні особливості, а фактори впливу на формування суспільної думки.

Чи буде перегляд відповідей Grok?

Наразі компанія xAI не коментувала публічно механізм формування джерел у Grok. Проте аналітики галузі вже порушують питання про прозорість інженерних інструкцій у мовних моделях, які претендують на статус “нейтрального аналітика”. З огляду на зростання регуляторного тиску з боку ЄС і США, питання “кого цитує ваша модель” може невдовзі стати політичним, а не лише технічним.

Раніше ми писали про масовий збій в роботі платформи для ігор Steam 11 липня 2025 року.

Марченко Катерина

About Author

Leave a comment

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Также стоит прочитать

Техно

Baidu представив широкій громадськості Ernie – китайський аналог ChatGPT

. Китайский технологический гигант Baidu объявил в четверг, что его бот Ernie, похожий на ChatGPT, теперь открыт для широкой общественности.
Техно

Алексей Данилов показав успішні тести ракетної програми Президента України Володимира Зеленського

Алексей Данилов оголосив про успішну реалізацію ракетної програми президента України Володимира Зеленського.