Z dobrodziejstwa metod wirtualnych po prostu nie można nie korzystać. Dzięki nim kod jest bardziej elegancki, krótki, często (wbrew powszechnej opinii) efektywniejszy i naturalnie bardziej obiektowy :) Wszystkie te zalety opierają się oczywiście na tym, że tak naprawdę nie musimy wiedzieć, jaką wersję metody wirtualnej – oryginalną czy nadpisaną w klasie pochodnej – wywołujemy w danym przypadku.
Sama metoda aczkolwiek ‘wie’ to doskonale. Czasami zdarza się jednak, że chcielibyśmy wywołać jej odziedziczoną wersję, pochodzącą z klasy bazowej. Podobnie jak większość języków, C++ nie czyni tego automatycznie (z wyjątkiem konstruktorów i destruktorów), jako że nie zawsze jest to potrzebne. Ale nierzadko się przydaje i jest wygodne.
W wielu językach, jak choćby Delphi czy C#, mamy pomocnicze słowa kluczowe, służące do takich właśnie wywołań. W przeciwieństwie do nich C++ oferuje jednak dziedziczenie wielokrotne, wobec tego czasami klasa bazowa nie jest określona jednoznacznie. Dlatego też chcąc wywołać odziedziczoną wersję metody, musimy jawnie użyć nazwy tej klasy., np.:
Wielodziedziczenia używamy jednak rzadko i w zdecydowanej większości sytuacji klasa bazowa będzie tylko jedna. Na takie okazje Visual C++ przewidział własne słowo kluczowe __super
. Możemy też pokusić się o bardziej przenośne rozwiązanie, definiując taki oto szablon:
a wówczas zyskamy swoje własne “słowo kluczowe” base
o możliwościach podobnych do tych z C#:
Na nieszczęście jest tu mnóstwo różnych “ale”. Największym problemem jest to, że właściwej klasy bazowej (tutaj CFoo
) nie ma jak zainicjalizować w klasie pochodnej, wobec czego musi ona dysponować domyślnym konstruktorem, który na dodatek będzie używany zawsze. To poważny feler, którego nie ma za bardzo jak naprawić. Dlatego jeśli bardzo doskwiera nam brak słowa base
, to chyba jedynym sposobem jest… ręczne dodawanie typedef
a podobnego do tego w szablonie Inherits
.
Dopiero C++0x wprowadzi możliwość dziedziczenia konstruktorów (na zasadzie przekierowywania ich parametrów do klasy bazowej), która pozwoli wyeliminować wspomniane ograniczenie. Wówczas taka wersja szablonu:
powinna zdać egzamin dla dowolnej klasy T
.
Internet powstał dobrych kilka dziesięcioleci temu, lecz jego obecnie najważniejsza część – czyli World Wide Web – liczy sobie “jedynie” około dwudziestu lat. Od momentu jej wynalezienia sukcesywnie jednak zyskuje na znaczeniu i można wręcz powiedzieć, że powoli wypiera niektóre z pozostałych usług sieciowych.
Już kilka lat temu dla wielu osób (szczególnie nowicjuszy) wyrazy ‘Internet’ i ‘WWW’ były właściwie synonimami, a przeglądanie stron główną formą sieciowej aktywności. Od tamtej pory ten trend coraz bardziej się nasila i strony WWW może nie tyle zastępują, co “połykają” inne usługi internetowe.
Weźmy taki webmail, czyli witryny służące dostępowi konta e-mail z poziomu przeglądarki. Bardzo często z powodzeniem zastępują one tradycyjne programy pocztowe, pozwalając na wykonywanie wszystkich typowych czynności związanych z pocztą. Oprócz tego mamy też wszelkiego rodzaju internetowe czaty, których większość jest dostępna w formie apletów Javy osadzonych na stronach WWW. W końcu nie sposób nie wspomnieć o forach dyskusyjnych, które stały się poważną alternatywą dla tradycyjnych grup Usenetowych.
Szczególnie Google przoduje w tym “uprzeglądarkowianiu”. Zaczęło się od GMaila, początkowo dostępnego tylko z poziomu strony WWW, zaś ostatnim wynalazkiem z tej serii jest Google Docs – czyli niemalże cały pakiet biurowy, w całości w formie zdalnej strony internetowej. Wszystko to jest oczywiście oznaczone magicznym słówkiem AJAX, które bynajmniej nie oznacza tutaj nazwy płynu do mycia szyb :)
Z jednej strony mamy więc witryny internetowe, które zachowują się jak programy. Z drugiej strony narzędzia służące do korzystania z nich – czyli przeglądarki – same stają się coraz bardziej rozbudowane. Standardem jest już wbudowany menedżer zarządzający pobieranymi plikami czy czytnik kanałów RSS; niektóre przeglądarki oferują znacznie więcej. Rekordy pod tym względem bije Opera, o której zwykłem mawiać, że chyba tylko prać i prasować jeszcze nie potrafi ;P
Czy taki kierunek ewolucji WWW i Internetu jest korzystny? Z jednej strony możliwość korzystania z wszystkich dobrodziejstw sieci (i nie tylko sieci) bez “ruszania się” z przeglądarki jest wygodna. Osobiście uważam jednak, że przeglądarki stron WWW powinny robić przede wszystkim to, na co wskazuje ich nazwa, zaś ich rozwój powinien polegać na dążeniu do jak najlepszego spełnienia standardów sieciowych, zwiększenia wygody użytkownika czy efektywności. To ostatnie jest szczególne istotne, gdyż nowe aplikacje webowe są coraz bardziej skomplikowane i zużywają coraz więcej zasobów systemowych.
A to jeszcze nie wszystko. Przecież skoro przez WWW mogą działać choćby edytory tekstu, to dlaczego nie… systemy operacyjne? I choć takie wynalazki jak ajaxWindows są póki co tylko ciekawostkami, kto wie, dokąd nas ostatecznie zaprowadzi ta przeglądarkomania…
Zakończyłem ostatnio pewien etap w tworzeniu silnika, czyli prace nad własnym systemem graficznego interfejsu. Taka okazja jest dość dobra dla wykorzystania napisanego już kodu i złożenia z niego tzw. techdema.
Takie demo nie jest naturalnie tym samym co wersja demonstracyjna gry (na przykład dlatego, że chwilowo żadnej gry nie piszę :)) czy demo scenowe. Jego celem jest prezentacja aktualnych możliwości silnika lub jakiegoś fragmentu jego funkcjonalności.
Czy jest sens pisania takich dem? Jak zwykle można podać przynajmniej kilka argumentów przemawiających tak za, jak i przeciwko. In plus możemy zaliczyć techdemom, że:
Tyle zalet. Są też jednak argumenty drugiej strony, iż:
A dodatkowo tworzenie dem, publikowanie screenów i tym podobne działania są przejawem tej silnikologii, do której, szczerze mówiąc, nie jestem jeszcze tak do końca przekonany :) Ale to już temat na inną okazję.
W każdym razie dopóki nie zajmę się na poważnie grafiką 3D i dopóki nie będzie w tej dziedzinie widać jakichś efektów, nie mam chyba za bardzo się czym chwalić ;P
Kto koduje trochę dłużej z użyciem technik programowania obiektowego, ten zapewne zna ideę wzorców projektowych. Są one czymś w rodzaju przepisów na określone klasy i związki między nimi, które rozwiązują konkretne problemy. Przykładowo znany wzorzec Iterator stwarza uniwersalny sposób na dostęp do elementów kolekcji – niezależnie od tego, czy jest to lista, drzewo, zwykła tablica, itp.
Ale oprócz tych pożytecznych wzorców istnieją też… antywzorce. Zdecydowanie nie są one instrukcją, jak pewne fragmenty programów pisać. O nie, wręcz przeciwnie – mówią one, jak ich nie pisać i pokazują typowe oraz mniej typowe błędy popełnione we wszystkich fazach tworzenia oprogramowania.
Więcej o nich można poczytać choćby w Wikipedii. Zamieszczona tam lista jest niezwykle obszerna, ale trudno się dziwić – mówimy przecież o sposobach, jak zrobić coś źle, a w tej dziedzinie ludzkość ma wybitne osiągnięcia :)
Do ciekawszych (i pouczających) przykładów takich antywzorców należą chociażby:
switch
– niezwykle “pomysłowy” sposób na zakodowanie kilku następujących po sobie czynności przy pomocy pętli i instrukcji wyboru, która zależnie od tego czy jest to 1., 2., czy N-ta iteracja wykonuje jakieś z góry ustalone czynności. Przyznam, że gdy to pierwszy raz zobaczyłem, nie mogłem wprost uwierzyć, że ktoś może wpaść na coś tak niedorzecznegoJak widać ten antywzorce dotyczą wielu różnych aspektów programowania i projektowania, i czasami ich niepoprawność wcale nie jest taka oczywista. (Chociaż na pewno ostatnia pozycja z listy powyżej jest aż nazbyt oczywista). Warto zatem zapoznać się z nimi; dzięki temu możemy znaleźć inspirację zarówno do unikania błędów, jak i ich popełniania ;]
Wyobraźmy sobie, że kończymy właśnie dużą partię kodu – kilkadziesiąt albo kilkaset linijek. Zamykamy ostatnią klamerkę (ewentualnie piszemy end
lub coś w tym guście), stawiamy ostatni średnik. Potem jeszcze tylko kilkukrotne przeciąganie suwaka paska przewijania, kilka pobieżnych rzutów oka na powstały listing i… kompilujemy.
Co się wtedy dzieje? Ano zwykle w tym momencie zatrzymuje nas jakiś trywialny błąd składniowy :) W sumie nic wielkiego, jakiś brak średnika albo powtórzony nawias; poprawiamy i próbujemy dalej. Po kilku razach w końcu zaakceptuje nasz program w całości – i zwykle dopiero wtedy zaczyna się prawdziwe debugowanie :]
Nie da się ukryć, ze czas tuż przed i w czasie kompilacji może być dość stresujący. Niby należałoby się już cieszyć, że oto wykonaliśmy jakiś (zwykle niewielki) kroczek na drodze do działającej całości. Zwłaszcza jeśli przez długi czas kod był rozgrzebany i nie dało się kompilować, domknięcie go z powrotem do kompilowalnej całości – uzupełnionej zapewne o nowe funkcje i możliwości – jest bardzo satysfakcjonujące.
Jednocześnie jednak to chwila próby. Pisanie kodu to w pewnym stopniu akt twórczy, ale jego kompilacja to proces najzupełniej prozaiczny, który sprawdza, jak nasze pomysły wypadają pod względem poprawności językowej. I jakby tego było mało, kod skompilowany na początku jest zwykle bardzo odległy od kodu poprawnego. Kompilacja jest więc zapowiedzią kolejnej, jeszcze “przyjemniejszej” fazy programowania – testów.
Jak zatem załagodzić kompilacyjny stres? Myślę, że należy wypracować sobie odpowiadającą nam częstotliwość przeprowadzanych kompilacji. Jeżeli bowiem będziemy przeprowadzali je zbyt rzadko, wówczas każda próba będzie trwała dłużej (więcej kodu = więcej błędów składniowych i tym podobnych), a w wynikowym kodzie ukrytych będzie więcej błędów do usunięcia podczas debugowania. Z drugiej strony trudno jednak kompilować i testować każdą drobnostkę, bo można całkowicie utonąć w szczegółach.
Czyli mówiąc wprost: ciężkie jest życie programisty :) W miarę nabywania doświadczenia okazuje się aczkolwiek, że potrafimy bez większych problemów doprowadzić do kompilacji coraz dłuższe partie kodu, w których w rezultacie nie ukrywa się już tak wiele błędów jak wcześniej. W programowaniu ważne jest bowiem, aby nie zrażać się pierwszymi (ani następnymi) niepowodzeniami.
Ci, którzy oprócz (albo zamiast) popularnych Okienek pracują w innych systemach operacyjnych, zapewne znają pewien edytor tekstu o nazwie vim. To jeden z tych kultowych programów ery początków Uniksa, które nadal mają swoich zagorzałych zwolenników. Wśród dzisiejszych programistów nie jest on może bardzo popularny, ale przez to jego używanie czasami wydaje się być jakimś wyższym stopniem wtajemniczenia. Sam aczkolwiek znam kilku koderów, którzy się nim posługują. Parę tygodni temu postanowiłem więc sprawdzić, co w trawie piszczy i zobaczyć, czy w praktyce legendarny interfejs vima faktycznie sprawuje się tak dobrze.
Dla mniej zorientowanych wyjaśniam, że vim (podobnie jak jego poprzednik vi) to edytor tekstu oryginalnie przeznaczony do pracy w konsoli. Jego interfejs jest tak naprawdę wybitnie ascetyczny, bo oprócz treści dokumentu składa się na niego tylko jednolinijkowy wiersz statusu i poleceń, umieszczony na dole.
Cechą charakterystyczną tego edytora jest między innymi to, że wszystkie polecenia można w nim wykonać przy pomocy alfanumerycznej części klawiatury. Nawet poruszanie się po tekście jest możliwe nie tylko strzałkami, ale też klawiszami H, J, K i L! Tak działają one aczkolwiek tylko w tzw. trybie Normalnym. vim ma oprócz tego też tryb Wstawiania (bardzo podobny do zwykłych edytorów tekstu) oraz Wizualny (do zaznaczania). Przełączanie się między nimi odbywa się oczywiście za pomocą odpowiednich skrótów klawiaturowych.
Dla nowicjusza wyglądają one cokolwiek dziwnie, podobnie jak sam sposób obsługi edytora polegający właśnie na przełączaniu między trybami. Jak mówi anegdota, najprostszy sposób na wygenerowanie losowego ciągu znaków to: posadzić początkującego przed vimem i kazać mu wyjść :)
Na początek warto więc wiedzieć, że służy do tego komenda :q
(lub :q!
) :P Nauka reszty podstaw potrzebnych do obsługi edytora nie zajmuje zresztą wiele czasu, jeżeli zrobimy to z tutorialem dołączonym do windowsowej wersji edytora – gVim.
Jakie można z tego odnieść korzyści? Zaprzysięgli fani vima utrzymują, że używanie go znacząco zwiększa szybkość i wygodę pisania, także kodu. Rzeczywiście posiada on kilka funkcji użytecznych dla programistów – jak na przykład wyszukiwanie par nawiasów. Poza tym koderzy cały czas stukają w klawiaturę, zatem możliwość obsługi edytora kilkunastoma klawiszami umieszczonymi blisko siebie powinna teoretycznie usprawniać pracę.
W praktyce obserwowałem kilka razy programistów pracujących w vimie i nie mogłem oprzeć się wrażeniu, iż strasznie się oni męczą. Sam próbując używać tego programu do codziennej pracy zauważyłem, że zmusza on do myślenia o strukturze tekstu – słowach, linijkach – o wiele bardziej niż ‘zwyczajne’ edytory. Ostatecznie to, że vim rzeczywiście poprawia wygodę programowania nie wydało mi się wcale oczywiste.
Jest natomiast wcale niewykluczone, że ten edytor jest bardzo dobry do pisania zwyczajnych tekstów dla osób, które biegle opanowały sztukę stukania w klawisze wszystkimi palcami obu dłoni. Wówczas fakt, że nie muszą one zdejmować dłoni z klawiatury aby np. coś poprawić, jest na pewno korzystny. Kod jest natomiast znacznie mniej regularnym tekstem, a szybkość jego wpisywania ma drugorzędne znaczenie. Większość czasu poświęconego na programowanie zajmuje przecież myślenie o kodzie, a nie jego wstukiwanie.
Stąd wniosek, że znajomość vima powinna być sporym atutem każdej sekretarki. Czemu wobec tego wszyscy do pisania zwykłych tekstów używają tylko (Open)Office? ;]]
Przychodzi czasem ochota, aby zapewnić dostęp do tych samych danych na różne sposoby. Ten pomysł można zrealizować w sposób poprawny albo i nie :) Dzisiaj właśnie przekonałem się ostatecznie, dlaczego stosowana przeze mnie metoda należała do tej drugiej kategorii.
Otóż dość powszechnie wykorzystuję pewną strukturę o nazwie SMouseEventArgs
, która docelowego zawiera informacje o jakimś zdarzeniu związanym z myszą (klik, przesunięcie, itd.). Wśród tych informacji jest między innymi pozycja kursora w momencie zajścia zdarzenia, która początkowo była opisana po prostu przez dwa pola X
i Y
.
W pewnym momencie zauważyłem jednak, że dość często stosuję konstrukcję podobną do tej:
gdzie POINT2F
jest strukturą opisującą punkt na płaszczyźnie. Aby zaoszczędzić sobie pisania (i konstrukcji tymczasowego obiektu) postanowiłem w przypływie kreatywności dodać do SMouseEventArgs
drugi sposób dostępu do tych współrzędnych – pole Position
. Jak? Otóż… przy pomocy unii:
Sęk w tym, że POINT2F
jest porządną strukturą i zawiera między innymi kilka konstruktorów. A jest niedozwolone, by obiekt klasy posiadającej zdefiniowany przez programistę konstruktor albo nietrywialny destruktor mógł być elementem unii.
Kompilator raczył mnie więc błędem, ale wówczas w kolejnym przypływie kreatywności stosowałem “objeście” w postaci anonimowej struktury:
I byłem święcie przekonany, że przecież skoro POINT2F
nie alokuje własnej pamięci, nie otwiera plików ani nie robi żadnych innych tego typu czynności, po których trzeba by sprzątać, to przecież nic złego nie może się stać…
Naturalnie byłem w błędzie :) Dalszym elementem układanki jest konstruktor SMouseEventArgs
, przyjmujący kilka parametrów i inicjalizujący nimi strukturę:
Na oko niby wszystko jest w porządku. Tylko dlaczego cokolwiek byśmy przekazali jako x
i y
, w wynikowej strukturze zawsze i tak współrzędne będą zerami?!
Ot, kolejna nierozwiązania zagadka Wszechświata. Przynajmniej do chwili, gdy uświadomimy sobie dwie rzeczy:
Aplikując te zasady do powyższego przypadku, mamy bardzo ciekawy scenariusz. Mianowicie pola X
i Y
są poprawnie wypełniane parametrami konstruktora SMouseEventArgs
, lecz w chwilę potem to samo miejsce pamięci jest… nadpisywane przez konstruktor POINT2F
. Dlaczego? Ano dlatego, że pole Position
też musi zostać zainicjowane, a domyślny konstruktor POINT2F
wstępnie ustawia je na punkt (0,0).
Mniej więcej takie są skutki prób bycia mądrzejszym od twórców języka i kompilatora :) Można by oczywiście brnąć dalej w to rozwiązanie, zmieniając kolejność deklaracji pól albo jawnie inicjalizować pole Position
zamiast X
i Y
. Cały czas jednak jest to stąpanie po cienkim lodzie.
Dlatego chyba najwyższy czas ograniczyć swoją kreatywność i następnym razem zastosować może mało efektowne, ale za to stuprocentowo bezpieczne metody dostępowe :)