Чому головні комп’ютери все ще важливі в цифрову еру банкінгу – інтерв’ю з Дженніфер Нельсон

Дженніфер Нельсон — генеральний директор izzi Software.


Відкрийте для себе найкращі новини та події у сфері фінтех!

Підписуйтеся на розсилку FinTech Weekly

Читають керівники JP Morgan, Coinbase, Blackrock, Klarna та інших компаній


У галузі, одержимій новітніми технологіями, легко забути, що деякі з найміцніших опор фінансової інфраструктури стоять уже десятиліття. Хоча фінтех-інновації часто подаються як гонка до майбутнього, основа глобального банкінгу тихо залишається закріпленою у системах, які багато хто неправильно вважає реліктами: головний комп’ютер.

Це не просто питання ностальгії або корпоративної інерції. Головні комп’ютери досі обробляють більшу частину світових фінансових транзакцій із надійністю та масштабом, що не мають рівних серед нових платформ. Їх здатність обробляти величезні обсяги даних у реальному часі, не жертвуючи безпекою, зробила їх незамінними у фінансовій системі, яка залежить і від швидкості, і від довіри.

Проте, незважаючи на їхню критичну роль, головні комп’ютери часто неправильно розуміють. У сучасних умовах, коли “хмара-перший” — стандартна мантра, здається контрінтуїтивним захищати старі технології. Але називати головний комп’ютер застарілою системою — це надто спрощено. Щоб зрозуміти чому, потрібно розглянути баланс між спадковими системами та сучасним прагненням до гібридної інфраструктури.

Аргументи на користь модернізації з обережністю

Фінансові установи під постійним тиском на модернізацію. Інвестори, клієнти та регулятори очікують безшовних цифрових сервісів, посиленої безпеки та ще швидшої роботи. Для багатьох керівників спокуса — активно шукати зміни — позбавитися старих систем і повністю перейти у хмару.

Але модернізація — це не просто технічний проект. Це стратегічна ініціатива, яка несе ризики, якщо її робити поспіхом. Дані, які десятиліттями зберігалися безпечно у середовищі головного комп’ютера, стають вразливими, коли їх переміщують в інше місце. Оптимізовані для головного комп’ютера додатки можуть зазнати труднощів при міграції, що призводить до дорогих затримок. Ці ризики — не лише гіпотетичні — вони загрожують щоденним операціям, відповідності регуляторним вимогам і навіть довірі споживачів.

Урок ясний: справжня модернізація — це не про знищення старого на користь нового. Це про інтеграцію сильних сторін, обережне поетапне оновлення та забезпечення того, щоб наступний крок не послабив уже працюючу систему.

Різниця у навичках із серйозними наслідками

Технології розвиваються швидше, ніж зростає кількість фахівців, здатних їх підтримувати. Це особливо помітно у сфері головних комп’ютерів. Багато років банки та фінансові установи покладалися на команду інженерів із глибокими знаннями систем IBM Z та суміжних платформ. З виходом на пенсію багатьох з них, нове покоління ще не повністю замінило їхні навички.

Це створює серйозну проблему. Недостатня кількість фахівців підвищує ризик дорогих помилок, навіть якщо захисти на місці. Надійність головних комп’ютерів не може повністю компенсувати людський фактор. Поки не навчені та не наставлені нові інженери, банки залишатимуться вразливими не через технології, а через звуження кола професіоналів, які знають, як їх безпечно використовувати.

Безпека все ще залежить від людей

Коли йдеться про кібербезпеку, більшість уваги зосереджена на інструментах і захистах. Але знову й знову справжні слабкі місця — у людській поведінці. У світі головних комп’ютерів це часто зводиться до того, як надаються, керуються та відкликаються дозволи.

Розробники, які не повністю розуміють наслідки підвищених дозволів, можуть залишити двері відкритими, не зловмисно, а через неповне навчання або зручність. Компанії, які не оновлюють доступ при зміні ролей співробітників, можуть випадково розкрити чутливі дані. Навіть за допомогою сучасних технологій основи безпеки залишаються важливими — і їх часто ігнорують.

Представляємо Дженніфер Нельсон

Щоб поставити ці виклики та можливості у контекст, ми звернулися до Дженніфер Нельсон, генерального директора Izzi Software. Нельсон побудувала свою кар’єру навколо систем головних комп’ютерів, провівши 15 років у Rocket Software та п’ять — у BMC, розширюючи свою перспективу через старші інженерні ролі поза екосистемою IBM Z. У 2024 році вона заснувала Izzi Software — компанію, яка займається придбанням та розвитком бізнесів, побудованих на платформах IBM Z та IBM Power.

Її погляд — що охоплює традиційну інженерію головних комп’ютерів і сучасне керівництво програмним забезпеченням — робить її рідкісним голосом у сучасних дискусіях про стратегію технологій у фінансових послугах.

Насолоджуйтеся інтерв’ю!


1. Оскільки фінтех мчить до хмарно-орієнтованого всього, ви стверджуєте, що головний комп’ютер залишається критично важливим для стабільності глобального банкінгу. Що, на вашу думку, найбільше неправильно розуміють інноватори щодо ролі старих систем сьогодні?

Перше, що вони неправильно сприймають — це називати головний комп’ютер застарілою системою; що через те, що їх запустили понад 60 років тому, вони нібито застаріли. Це як називати операційну систему Windows застарілою платформою. Це просто не відповідає дійсності. Головні комп’ютери сьогодні більш актуальні, ніж коли їх вперше створювали.

Усі прагнуть отримати дані зі швидкістю світла. Вони хочуть, щоб дані повернулися одразу після натискання кнопки, незалежно від того, де ці дані зберігаються. І це цілком логічно, бо кінцевий користувач не знає і не повинен знати складнощів їх запиту, таких як місце зберігання даних. Але тільки головний комп’ютер може забезпечити таку продуктивність і безпеку у гібридному середовищі.

Головні комп’ютери можуть приймати дані будь-де, аналізувати їх і звітувати, з рекомендаціями, краще за будь-яку іншу платформу, і швидше. Покажіть мені іншу систему, яка може збирати дані з усього глобального мережевого простору, аналізувати їх, виявляти аномалії у реальному часі і відправляти назад до запитувача.

Хто краще знає свої дані — той і перемагає, бо дані — так само цінні, як грошовий капітал. Коли інноватори ігнорують головні комп’ютери як застарілі системи, вони ігнорують їхню швидкість і потужність, а також здатність обробляти величезні обсяги даних у реальному часі для виявлення ризиків.

Люди вважають, що хмара змінила гру і є сучасною, а головні комп’ютери — застарілими. Концепція хмарних обчислень через мережу дійсно сучасна і революційна для багатьох. Але якщо ви знайомі з технологією головних комп’ютерів, ви побачите, що вона має багато спільних рис із хмарою. Наприклад, коли ви входите у головний комп’ютер, ви входите у TSO, що означає “опція спільного часу”. У вас є власна сесія TSO, або екземпляр Microsoft Teams.

Ви всі використовуєте ті самі процесори на головному комп’ютері. Але коли ви не виконуєте програму або пакетне завдання, потужність надається тим, хто її потребує. Ви також входите у LPAR, або логічний розподіл, з виділеним сховищем, безпекою та приватністю. Користувачі на одному LPAR не можуть отримати доступ до даних на іншому LPAR, якщо це не налаштовано спеціально. Це і є ядро хмари: спільне використання ресурсів, коли вони не потрібні, і захист даних, виділених для вашого екземпляра. Але ці концепції використовуються у головних комп’ютерах вже роками.

2. Гібридна інфраструктура — поєднання головних комп’ютерів із новими шарами хмари — стає нормою. З вашого досвіду, які реальні ризики виникають, коли організації намагаються модернізуватися занадто швидко або поверхнево?

З кількох ризиків я можу виділити два.

Перший ризик — споживання даних. Дані на головному комп’ютері — одні з найзахищеніших. Коли ви виводите їх із системи або робите доступними для когось, хто їх обробляє, з’являється ризик порушення конфіденційності та регуляторних вимог. Хто дивиться на них? Куди вони йдуть, коли залишають головний комп’ютер?

Другий ризик — у оптимізації додатків для роботи у гібридному середовищі. Оптимізовані для головного комп’ютера додатки можуть працювати неефективно на інших серверах. Затримки і проблеми з продуктивністю можуть знизити ефективність.

3. Ви піднімали питання про розрив у навичках у сфері головних комп’ютерів. Наскільки серйозний ризик для інституцій, коли менше інженерів знає, як керувати та захищати ці системи, на яких все ще базуються фінансові установи?

Ризик дуже серйозний. Нові розробники — не лише молодші, а й ті, хто щойно увійшов у галузь — навчаються і розвивають свої навички. Але доки наступне покоління не наздожене, існуватиме певна вразливість у фінансових установах через недостатню глибину інституційних знань.

Люди з поверхневими знаннями або досвідом можуть випадково спричинити ризики для даних або операційної системи. Ці системи стійкі і мають кілька рівнів захисту від людських помилок, але ризик все одно залишається, доки навички не стануть достатньо глибокими. Банки вже сьогодні борються із цим розривом у навичках.

4. Розмови про безпеку часто зосереджені на інструментах, але ви наголошуєте, що людський фактор — це фронтова лінія. Які операційні сліпі зони ви найчастіше бачите у керуванні середовищами головних комп’ютерів?

Управління відповідними середовищами зазвичай зосереджено навколо підвищених дозволів. Коли інженер пише код, іноді йому потрібен підвищений дозвіл для виконання конкретної дії в операційній системі, щоб активувати більш чутливу функцію. Якщо інженер неправильно зрозуміє найкращі практики, він не знатиме, коли входити і виходити з цього підвищеного стану. Цей стан несе додатковий ризик, тому інженери не залишаються у ньому довго, щоб повністю зрозуміти найкращі практики розробки для системи.

Також існують базові практики безпеки, які потрібно застосовувати у будь-якій ІТ-мережі. Коли ви надаєте особливі дозволи людині на певну роль, потрібно мати чіткий процес їхнього відкликання при зміні ролі, щоб забезпечити видалення доступу. Часто це не є проблемою, якщо ця особа все ще працівник компанії або не є зловмисником. Але ризик залишається, коли залишаєте доступ до чутливих даних тим, хто вже не потребує його.

Крім того, системні набори даних головного комп’ютера дозволяють користувачам виконувати базові функції системи. Деякі функції можна активувати лише на глибших рівнях операційної системи. Ви будете здивовані, скільки компаній залишають базові принципи безпеки без уваги. Існують способи, щоб інженери виконували свою роботу без доступу до цих кореневих ресурсів, але легше працювати з цим рівнем доступу, тому компанії залишають «задню двері» відкритими більше, ніж потрібно.

Більшість співробітників можна довіряти, але ці фундаментальні принципи залишають відкритими і забувають про них деякі фінансові установи.

5. Атаки з використанням програм-вимагачів зараз націлені не лише на кінцеві точки, а й на основну інфраструктуру. Що робить застарілі системи унікально вразливими — і, в деяких випадках, більш стійкими — ніж нові платформи?

Головні комп’ютери мають вбудовані рівні безпеки, яких більшість серверів позбавлені. Просто тому, що ви можете увійти у головний комп’ютер, не означає, що маєте доступ до бізнес-критичних даних, які зазвичай блокуються програмами-вимагачами. Вам потрібно знати, де зберігаються дані, і як до них отримати доступ. А дані можуть бути розподілені по сегментах, тому зловмисник має доступ лише до частини даних, а не до всього, що потрібно для успішної атаки. І якщо у вас немає доступу до сховища, ви не побачите дані на цьому пристрої.

6. З вашого досвіду, як виглядає ефективна модернізація для фінансових установ, які не можуть собі дозволити “рвати і замінювати”, але повинні бути готовими до майбутнього?

Модернізація означає різне для різних компаній залежно від стану їхніх додатків. Чи то B2B, чи B2C, компанії постійно оновлюють сервери і ноутбуки.

Те саме стосується і критичних для бізнесу додатків. Компанія може періодично оновлювати ці додатки, але оскільки традиційні додатки головних комп’ютерів створювалися багато поколінь тому, найкраще — це повністю оцінити, що робить кожен додаток від початку до кінця. Так вони зможуть поетапно впроваджувати модернізацію.

Компанії можуть розділити додаток на частини, оновлюючи і переписуючи їх поступово, відповідно до можливостей. Якщо розглядати модернізацію як безперервний процес, бажання покращувати і вдосконалювати стане постійним.

Лідери мають бути проактивними. Питання мають бути: “Що ми можемо зробити зараз? Що можемо вкласти цього року? Що — у наступні два роки?” Це кращий підхід, ніж “як переписати все з нуля?”

Потрібно поступово оновлювати системи. Почніть із переписування однієї функції критично важливого додатка, потім додайте інші функції по мірі можливості. Поетапне оновлення — це ключ.

Розрив і заміна — один із варіантів. Це звучить радикально і жорстко, але насправді означає просто припинити використовувати одну систему і перейти на іншу. Але керівництву потрібно мати сміливість зробити великі зміни одразу і затвердити бюджет. Насправді це більше схоже на “заміна”, бо процедура може тривати роками.

7. Для технічних керівників із менталітетом “спершу у хмару”, що, на вашу думку, є найважливішим зміною у мисленні при роботі з критично важливими системами головних комп’ютерів?

Дізнайтеся, що насправді робить головний комп’ютер. Гіппократова клятва каже — спершу не нашкодити, тому зрозумійте, за що відповідає головний комп’ютер, щоб уникнути шкідливих помилок. Як тільки ті, хто орієнтується на хмару, зрозуміють повний обсяг транзакцій, що надходять у головний комп’ютер, їхню природу і залежність доходів компанії від цих транзакцій, вони зможуть уникнути шкоди для продуктивності та прибутковості компанії.


Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити