Тім ОРайлі - ХЗ. Хто знає, яким буде майбутнє стр 9.

Шрифт
Фон

Товаризація операційних систем, баз даних, серверів, браузерів і загалом програмного забезпечення справді підривала засади бізнесу Microsoft. Однак, попри нищівні наслідки, відкривалися можливості для «додатків-убивць» доби інтернету. Варто памятати про цю історію, аналізуючи вплив сервісів за запитом на зразок Uber, безпілотних автомобілів і штучного інтелекту.

Клейтон Крістенсен, автор книжок «Дилема інноватора» (The Innovators Dilemma) і «Рішення інноватора» (The Innovators Solution), запропонував теорію, яка пояснювала мої спостереження. У статті для Harvard Business Review 2004 року він сформулював такий «Закон збереження вигідних прибутків»:

Коли на певному етапі ланцюжка створення вартості продукт стає модульним або зазнає товаризації і втрачаються вигідні прибутки, на наступному етапі відкривається можливість для вигідних прибутків з пропрієтарних продуктів39.

Google та Amazon змінили традиційні уявлення про вільне програмне забезпечення, або Open Source. Додатки будувалися на Linux, але були суто пропрієтарними. Ба більше, використовуючи й модифікуючи програмне забезпечення, обмежене вимогами найсуворішої серед ліцензій вільного ПЗ GPL (публічної ліцензії GNU), ці сайти не потерпали від обмежень, що вписувалися в стару парадигму. GPL захищає права користувача при розповсюдженні програмного забезпечення, але веб-додатки не розповсюджують ПЗ. Такі програми на базі всесвітньої мережі надаються радше як послуга, ніж як пакетне ПЗ.

Та найважливіше, хоч ці сайти роздавали вихідний код, користувачам складно було створити точну копію запущеного додатка. Я казав прихильникам вільного ПЗ, зокрема Річардові Столлману: прибрати до рук Amazon чи Google, навіть озброївшись усіма їхніми програмами, розробленими на Linux, неможливо40. Ці сайти не просто складаються з низки програм. Вони тримаються на величезних масивах даних, великій кількості людей і бізнес-процесів, які обєднують, регулюють та розробляють сервіси на основі даних.

Поки я досліджував це питання, у галузі технологій відбувалися «тектонічні зрушення» і зявлялися нові «континенти», які треба було позначати на мапі. У червні 1999 року файлообмінний сайт Napster перевернув індустрію з ніг на голову, дозволивши користувачам ділитися в мережі музичними файлами абсолютно безкоштовно.

Із технічного погляду, найцікавіше, що Napster, а потім й інші файло­обмінники, зокрема FreeNet, Gnutella, а трохи згодом BitTorrent, не зберігали всіх файлів в одному місці, як звичайні музичні онлайн-сервіси. Натомість файли зберігалися на жорстких дисках мільйонів користувачів інтернету. Енді Орем, один із

редакторів мого видавництва, якось сказав, що нові програми позначаться передусім радше на інформаційній архітектурі, ніж на бізнес-моделі. (Історія знову повторилася 15 років потому з біткоїнами і блокчейнами).

Децентралізація виходила за межі всесвітньої мережі. Очевидно, треба було знову переосмислювати майбутнє інтернету як платформи для додатків і контенту наступного покоління.

Це майбутнє не обмежувалося обміном файлами. У рамках проекту SETI@home, започаткованого в середині 1999 року, користувачі інтернету реєструвалися і ділилися невикористаними обчислювальними ресурсами своїх ПК, уможливлюючи аналіз сигналів радіотелескопа щодо ознак існування позаземного розуму. Зявилася можливість розподіляти між тисячами компютерів не лише файли і дані, а й обчислювальну потужність. Девелопери зрозуміли, що ефективні додатки для інтернету можуть слугувати компонентами, які запускають інші програми, тепер це називають «веб-сервіси». API (прикладний програмний інтерфейс) не тільки дозволяв продавцеві ОС, на зразок Microsoft, давати девелоперам доступ до системних сервісів. Він став дверима, які сайт лишав прочиненими, щоб інші заходили й безпечно отримували дані.

Джон Удел, провидець у сфері технологій, на першій «Конференції Perl» 1997 року виголосив на цю тему промову. Він зазначив: звертаючись до серверної бази даних по інформацію, сайт закодовував дані в URL (уніфікований локатор ресурсів в інтернеті), і цей URL конструювався програмою; таким чином будь-який сайт перетворювався на компонент, що запускається програмою.

Програмісти давно використовували такі приховані ключі для віддаленого контролю над сайтами. Наприклад, пошукові рóботи програми, за допомогою яких можна відвідувати і копіювати мільйони сайтів водночас, були важливою складовою пошукових систем. Однак люди замислилися, як узагальнити віддалене звернення до сайтів і ввести конкретніші функції.

Формувалася повністю нова парадигма в інформаційних технологіях. Інтернет замінював персональний компютер як платформа для додатків наступного покоління. Всесвітня мережа була найважливішою складовою цієї платформи, але обмін файлами між користувачами, розподілені обчислення й месенджери на зразок ICQ свідчили, що відбуваються масштабні зміни.

Отож у вересні 2000 року я знову зібрав людей, які, на мою думку, мали зустрітися й зясувати, що мають спільного.

Ми дійшли певних висновків після того «пірингового» саміту, і на початку наступного року організували «Конференцію OReilly пірингових систем і веб-сервісів». До 2002-го ми перейменували її на «Конференцію OReilly нових технологій» і зосередилися на темі «Будівництво операційної системи інтернету».

Ваша оценка очень важна

0
Шрифт
Фон

Помогите Вашим друзьям узнать о библиотеке

Похожие книги