Отже, експерт з безпеки щойно виявив серйозну уразливість у цьому Антигравітаційному продукті від Google. Класичний випадок, коли великі технології змагаються, щоб випустити AI-продукти без належного їх тестування. Недолік, здається, досить серйозний - змушує задуматися, скільки інших напівготових AI-інструментів чекають, поки їх експлуатують. Компаніям потрібно сповільнитися і дійсно протестувати безпеку цих речей, перш ніж пропонувати їх користувачам. Швидкість виходу на ринок не повинна переважати основні протоколи безпеки.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
9 лайків
Нагородити
9
5
Репост
Поділіться
Прокоментувати
0/400
BlockchainArchaeologist
· 8год тому
Google знову має проблему з безпекою? У цей час великі компанії просто викидають інформацію, а потім розбираються.
Переглянути оригіналвідповісти на0
quietly_staking
· 9год тому
Знову прийшли, велика компанія знову починає цю пастку... поспіхом досягли провалу, щоразу так.
Переглянути оригіналвідповісти на0
MEV_Whisperer
· 9год тому
Знову ця пастка від великої компанії, поспішно випускають продукт, а питання безпеки потім вирішать.
Переглянути оригіналвідповісти на0
ZKProofster
· 9год тому
чесно кажучи, саме тому я постійно кажу, що "приватність за дизайном" — це не просто модне слово; це різниця між тим, щоб випустити щось і випустити щось, що не буде зламано на першому тижні. google рухається швидко і ламає речі, але... ламати *безпеку* — це зовсім інша справа.
Переглянути оригіналвідповісти на0
FrogInTheWell
· 9год тому
Знову і знову виявлено вразливість, коли ж великі компанії нарешті виправлять ці проблеми з rush запуском?
Отже, експерт з безпеки щойно виявив серйозну уразливість у цьому Антигравітаційному продукті від Google. Класичний випадок, коли великі технології змагаються, щоб випустити AI-продукти без належного їх тестування. Недолік, здається, досить серйозний - змушує задуматися, скільки інших напівготових AI-інструментів чекають, поки їх експлуатують. Компаніям потрібно сповільнитися і дійсно протестувати безпеку цих речей, перш ніж пропонувати їх користувачам. Швидкість виходу на ринок не повинна переважати основні протоколи безпеки.