Czyli miałeś kupić serwer oparty na procesorze Power, na którym instalowałeś AIX-a, na którym uruchamiałeś WAS-a, i na tym stacku dopiero pisałeś (używając narzędzi IBM-a) swoje oprogramowanie biznesowe. Które trzymało dane w DB2 na innym serwerze IBM-a. Ale jak potrzebowałeś serwera na Wintelu, to też mogłeś kupić od IBM-a. Tym wszystkim zarządzałeś za pomocą TAMITa, który pobierał dane z TAD4d, itd. I jak miałeś bazę Oracla na HP-UX, to też był dostępny chociażby kawałek jakiegoś Storage Managera do robienia backupów. A na laptopach analityków instalowałeś SPSS-a, czy innego Cognosa, które drukowały raporty na drukarkach IBMa, chyba że wysyłali mailem przy użyciu Notesów. Niektóre elementy tego stacka były bardzo dobre inne bardzo słabe, ale całość była dość unikalna, bardzo obszerna, nieraz niezbędna, zwykle koszmarna w konfiguracji i integracji (konieczne płacenie za support i serwisy) i jednocześnie bardzo mocno lockująca w vendorze.
To jest skuteczna strategia, ale trzeba być bardzo silnym, żeby ją realizować. Wydaje się że IBM już nie jest taki silny.
Microsoft w latach 80/90-tych jednak działał trochę inaczej (tylko soft, najchętniej masowe produkty i ograniczone wsparcie).
Ale teraz właśnie (i to powód dla którego się rozpisuję, bo chciałem się podzielić obserwacją); i Microsoft i Google i Amazon; wygląda że realizują podobną strategię: rozszerzają działalność zarówno na hardware jak i soft, oraz chmura (czyli współczesny odpowiednik sprzedaży serwerów); ogromna integracja pionowa i bardzo szeroka działalność horyzontalna.
]]>A GUI to ja tak naprawdę nie za bardzo lubię, bo to mnóstwo mało twórczego grzebania się, a ja mam trochę problemy żeby na koniec wyglądało rzeczywiście ładnie. Business logic bawi mnie o wiele bardziej.
]]>I teraz tak – to wygląda trochę dziwnie, jak się nie ma doświadczenia z ObjC, ale ta technologia zupełnie dobrze broni się DWADZIEŚCIA LAT PÓŹNIEJ. I sądząc po tym, co piszesz o UI w Androidzie, to nie są godni autorom Cocoa myć nóg.
Swoją drogą, jeśli bawisz się w programowanie rzeczy mobilnych, to poświęć trochę czasu na rzucenie okiem jak Cocoa jest zrobione. To jest naprawdę bardzo porządna inżynierska robota, i jak się już przebije barierę wejścia, to można bardzo sprawnie w tym programować. Twitów też trochę jest, na przykład na linii podziału między starą (do programowania Maców, klasy NS*) i nową (do programowania urządzeń mobilnych, klasy UI*) część kodu UI, ale ja nie znam lepszych bibliotek do GUI, a używałem wielu.
]]>A potem dostałem Slackware (chyba) 2.0 na kilkudziesięciu dyskietkach, odpaliłem sobie 32-bitowy UNIX z Xami, i pierwszy program w C, jaki skompilowałem zrobił po prostu malloc(2^20) – whoa!
Ale tak, dla zwykłego użytkownika to się nie nadawało.
]]>Mieliśmy wtedy zaprenumerowany MSDN na CDkach, jakby zrealizowali wszystko co było w dokumentach strategicznych publikowanych tam, to wyskakiwaliby z lodówki tak samo jak Google dziś.
]]>@wczesne reklamy Apple
W sumie masz rację, ta reklama to akurat 1984, ale ja zobaczyłem ją pierwszy raz znacznie później a Microsoft wtedy dokładnie kopiował strategię IBM-a, i pewnie dlatego mi się złożyło.
W latach 80-tych to rzeczywiście Microsoft to byli kolesie od MS-DOSa itp., ale ten moment maksymalnego hejtu (i postępowań sądowych) na MS to była połowa/końcówka lat 90-tych.
Linux to była wtedy trochę teoretyczna masakra. Byłem wtedy młodym, ale kumatym użytkownikiem z bardzo dużą ilością wolnego czasu i pamiętam swoje próby uruchomienia Linuksa po raz pierwszy. I ciężko to szło. Klasyczny RedHat nie działał na mojej płycie głównej (konkretnie chodziło zdaje się o sterowniki kontrolera), ani żadna normalna dystrybucja w zasięgu ręki. Okazało się że trzeba zorganizować taką specjalną dystrybucję firmowaną przez Asus-a (Abit Gentus Linux to się chyba nazywało). Załatwiłem, zainstalowałem (po drodze partycjonowanie przy użyciu linuksowego (czyli innego) fdiska i inne wyzwania. Działa. Super, ale tylko w trybie tekstowym. X-y się wywalają przy starcie. Grzebie dalej, nie działa bo nie ma myszki. Myszka na USB nie-obsługiwana. Poprawiam, wymuszam konfigurację, startuje w końcu GNOME, ale myszki nadal nie ma. Bezsensu. Zniechęcam się do trybu graficznego. Ale chociaż żeby karta dźwiękowa, muzyki posłuchać. Drobiazg, tylko jądro trzeba skompilować. Uff, działa. Polskie litery.. To już miałem dość tego grzebania konfiguracyjnego na pół roku i zająłem programowaniem tekstowych (bo nie miałem pojęcia jak dostać się do grafiki) programów w C. I GCC to wreszcie była taka rzecz lepsiejsza od najlepszego dostępnego mi pod Dosem, czyli Borlanda.
Dobra, już kończę
Chciałem po prostu przypomnieć że Linux to było coś fajnego jako rozrywka dla hobbysty, względnie dla dość niszowych zastosowań.
Ale jako komputer dla normalnego człowieka, to się nie liczył.
Tymczasem Apple był podupadły, WordPerfect wylatywał z rynku na rzecz Worda, 1-2-3 i QPro na rzecz Excela. Windows miał wersje na Alphę, Silicon Graphics robił stacje graficzne pod Windowsa, Visual Basic zaczął dominować w casual programming, Access w biurowych bazach, pojawiło się Visual Studio, Internet Explorer, itd.
W Internecie (albo zamiast Internetu) pojawiło się Microsoft Network, do grania miało był Microsoft Zone.
Teraz może tego tak nie widać, ale był czas że Microsoft wyskakiwał z lodówki.
]]>