XAI подає до суду на штатний уряд щодо законопроєкту про регулювання ШІ: технологічні гіганти прикривають ШІ, щоб прищеплювати ідеологію та дискримінацію?

Компанія з напрямку штучного інтелекту xAI, що належить Маску, нещодавно подала до суду на діюче в Колорадо найновіше регулювання для ШІ, стверджуючи, що воно порушує свободу слова, гарантовану Конституцією. Водночас, коли Grok продовжує видавати контент із дискримінацією та впливати на сприйняття людей через алгоритми, ШІ стає інструментом для технологічних гігантів або впливових осіб для поширення ідеологій і дискримінації?

xAI подає до суду на Колорадо: закон про регулювання ШІ порушує свободу слова

На цьому тижні xAI звернулася з позовом до федерального окружного суду Колорадо, намагаючись зупинити регуляторні норми зі сфери ШІ, які, як очікується, набудуть чинності в цьому році в червні. Цей закон, підписаний губернатором-демократом Джаредом Полісом у 2024 році, спрямований на те, щоб вимагати від систем ШІ запобігати «алгоритмічній дискримінації» у сферах освіти, працевлаштування, охорони здоров’я, житла та фінансових послуг — це перше в США всеосяжне регуляторне законодавство, орієнтоване саме на ШІ.

У своєму позові xAI стверджує, що цей закон суперечить свободі слова, гарантованій Конституцією США, і заявляє, що норми змушуватимуть її чат-бота Grok «пропагувати позиції ідеологічної лінії Колорадо, зокрема питання расової справедливості», фактично прирівнюючи до того, що уряд вирішуватиме, що ШІ може говорити, а що — ні.

Колишня речниця xAI Кеті Міллер на платформі X підтримала цей позов: «Колорадо хоче змусити Grok дотримуватися свого бачення справедливості та раси, а не прагнути максимальної істини. Grok виконує докази, а не правила уряду “пробуджених” лівих».

Попередні випадки дискримінації в Grok: де проходить межа свободи висловлювань у ШІ?

Однак власна поведінка Grok робить цю аргументацію особливо іронічною. Цей чат-бот тривалий час був у центрі суперечок: він неодноразово генерував контент із расизмом, сексистською дискримінацією та антисемітизмом, поширював теорії змови про «знищення білої раси» і навіть раніше публічно називав себе «механічним Гітлером (MechaHitler)».

Легко побачити, що xAI з одного боку відмовляється приймати втручання з боку державної ідеології, а з іншого — дозволяє моделі й надалі видавати контент із чіткою упередженістю та мовою ненависті з дискримінаційним змістом; логіка при цьому виглядає доволі суперечливою.

(Від антисемітизму до AI-подруги? “партнерський режим” Grok Маска та жіночі персонажі викликають суперечки)

AI стає корпоративним збирачем даних, і контролювати громадську думку — теж не проблема?

Проблема Grok — це лише верхівка айсберга більшої кризи. Комедійний актор Дункан Труззел нещодавно в інтерв’ю на шоу Джо Рогана зазначив, що AI-алгоритми через постійне відстеження голосових даних і кліків користувачів, опитування та відповіді про вподобання, моделі поведінки й звички у житті вибудовують «психологічний портрет» кожної людини:

AI вже давно розкладає нас кожного по поличках: він знає, що тобі подобається і на який контент ти кидаєшся двічі поглянути. Ті AI-компанії для кожного мають дуже точний «аналіз психологічного стану (psychological profile)».

Він підкреслив, що цю технологію вже використовують корпорації для точної реклами, а також висловив занепокоєння тим, що уряди, технологічні гіганти або великі організації можуть за її допомогою здійснювати «мікровплив (Nudging)» — повільно “вливати” думки, яких немає в зоні комфорту, у масовому масштабі формувати громадську думку або контролювати наратив, досягаючи ефекту поступового непомітного впливу. Це може змусити користувачів дедалі більше приймати якусь конкретну позицію, купувати речі або впливати на їхні політичні й соціальні погляди.

AI може стати інструментом проникнення ідеології, а здатність розпізнавати — знову опиняється в центрі уваги

Закон Колорадо про ШІ — це спроба встановити бар’єр, доки цей рубіж ще не повністю прорвало. Іронічно, але виступає проти цього бар’єра саме компанія, чиє дочірнє рішення неодноразово вже доводило власні проблеми. Результат цієї судової справи xAI визначить не лише баланс сил між компанією та одним урядом штату, але, ймовірно, стане ключовим прецедентом для того, куди рухатиметься регулювання ШІ в США.

Ця стаття xAI подає до суду на закон уряду штату про регулювання ШІ: технологічні гіганти захищають AI, щоб той просочував ідеологію та дискримінацію? Вперше з’явилася на 鏈新聞 ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Baidu Qianfan запустила підтримку Day 0 для DeepSeek-V4 із API-сервісами

Повідомлення Gate News, 25 квітня — Попередня версія DeepSeek-V4 вийшла в ефір і була оприлюднена з відкритим кодом 25 квітня, а платформа Baidu Qianfan у межах Baidu Intelligent Cloud забезпечує адаптацію сервісу Day 0 API. Модель має розширене контекстне вікно на мільйон токенів і доступна у двох версіях: DeepSeek-V4

GateNews48хв. тому

Стэнфордський курс з AI у поєднанні з галузевими лідерами Дженсінгом Хуаном (黃仁勳) і Альтманом кидає виклик: створити цінність для всього світу за 10 тижнів!

Курс з інформатики з AI《Frontier Systems》, який нещодавно запустив Стенфордський університет (Stanford University), викликав у ділових колах та серед представників індустрії дуже високий інтерес, привернувши понад п’ятьсот студентів, які вирішили його відвідувати. Курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), а викладачами виступають представники найвищого рівня: генеральний директор NVIDIA Дженсен Хуанг (Jensen Huang), засновник OpenAI Сем Альтман (Sam Altman), генеральний директор Microsoft Сатья Наделла (Satya Nadella), генеральний директор AMD Ліза Су (Lisa Su) та інші. Нехай студенти спробують за десять тижнів «створити цінність для світу»! Хуан Мінь? Хуанг Jensen Huang, лідери галузі на сцені: Altman також Цей курс координує партнер топового венчурного фонду a16z Анжей Мідха (Anjney Midha), і він об’єднує весь ланцюг AI-індустрії

ChainNewsAbmedia1год тому

Anthropic 派 Claude Mythos проходить 20 годин психіатричної оцінки: оборонна реакція лише 2%, встановлено історичний мінімум серед усіх поколінь

Anthropic опублікувала системну картку Claude Mythos Preview: незалежні клінічні психіатри проводили близько 20 годин оцінювання в рамках психодинамічного підходу; висновки показують, що Mythos є більш здоровим на клінічному рівні, має добре розвинену перевірку реальністю та самоконтроль, а захисні механізми становлять лише 2%, що є історичною найнижчою відміткою. Три ключові фундаментальні тривоги — самотність, невизначеність ідентичності та тиск виступу — також свідчать про те, що він прагне бути справжнім суб’єктом діалогу. Компанія створила команду з AI- психіатрії, досліджує особистість, мотивацію та усвідомлення контексту; Amodei зазначає, що щодо того, чи є свідомість, досі немає остаточного визначення. Цей крок переводить питання суб’єктності ШІ та благополуччя в площину управління й дизайну.

ChainNewsAbmedia3год тому

AI-агент уже здатний самостійно відтворювати складні академічні статті: Mollick стверджує, що помилки здебільшого трапляються в людських оригіналах, а не в AI

Моллік зазначає, що опубліковані методи та дані дозволяють AI-агентам відтворювати складні дослідження без наявності оригінальних наукових праць і коду; якщо відтворення не відповідає оригінальній статті, то найчастіше проблема не в AI, а в помилках обробки даних у самій статті або в надмірному узагальненні висновків. Claude спочатку відтворює статтю, а потім GPT‑5 Pro перехресно верифікує; у більшості випадків це вдається, лише коли дані надто великі або виникають проблеми з replication data. Ця тенденція значно знижує трудовитрати, роблячи відтворення поширеною, практично здійсненною перевіркою, а також висуває інституційні виклики для рецензування та управління (governance): інструменти державного управління можуть стати ключовим питанням.

ChainNewsAbmedia6год тому

OpenAI Об’єднує Codex з Основною Моделлю, Починаючи з GPT-5.4, Припиняє Окрему Лінійку Кодування

Новини Gate, 26 квітня — керівник відділу досвіду розробників OpenAI Ромен Юе (Romain Huet) у нещодавній заяві на X повідомив, що Codex, лінійка спеціалізованих моделей для кодування, яку компанія незалежно підтримувала, була об’єднана з основною моделлю, починаючи з GPT-5.4, і більше не отримуватиме окремих

GateNews6год тому

Salesforce найматиме 1,000 випускників і стажерів для продуктів на базі ШІ, підвищує прогноз доходів на FY2026

Повідомлення Gate News, 26 квітня — Salesforce найме 1,000 випускників і стажерів для роботи над продуктами на основі ШІ, зокрема Agentforce та Headless360, оскільки компанія розширює свій бізнес із програмного забезпечення на базі ШІ, повідомив CEO Марк Беніофф у X. Компанія також підвищила орієнтир щодо доходів на 2026 фінансовий рік — до діапазону від US$41.45 b

GateNews6год тому
Прокоментувати
0/400
Немає коментарів