Przyczyna powstania pierwszego telewizora elektronicznego
Ze względu na coraz szybszy rozwój technologiczny naszej cywilizacji powstała potrzeba przekazywania informacji na dalekie dystanse. Problem ten został rozwiązany, gdy pod koniec XIX wieku wynaleziono radio. Wtedy pojawiło się pytanie: czy skoro jest możliwe przesyłanie dźwięku na odległość, to czy nie można zrobić tego samego z obrazem? Szybko okazało się, że jest to jak najbardziej wykonalne, a ludzkość dowiedziała się o tym już w latach 30. XX wieku dzięki wynalazkowi Johna Bairda – telewizorowi (mechanicznemu). Możliwości urządzenia były jednak bardzo ograniczone ze względu na konstrukcję. Niedługo po jego powstaniu zdano sobie sprawę, że nie będzie dla niego przyszłości, chyba że zostanie oparte na innej technologii. Wraz z szybkim rozwojem elektroniki powstał nowy cel – wynalezienie telewizji elektronicznej.
CRT – pierwszy telewizor elektroniczny
W tym samym czasie, gdy John Baird prezentował swoje dzieło, pracowano nad stworzeniem telewizji elektronicznej. Działania te były bardzo efektywne, ponieważ już w 1926 r. Kenjiro Takayanagi zaprezentował pierwszy prototyp telewizora CRT (Cathode Ray Tube). Urządzenie to działało dzięki tzw. działu elektronowemu, które przechwytywało elektrony emitowane przez katodę i wystrzeliwało je na powierzchnię ekranu pokrytą luminoforem, wywołując jego świecenie. Okazało się to na tyle dobrym rozwiązaniem, że po paru ulepszeniach projektu niemiecka firma Telefunken zaczęła sprzedawać telewizory CRT. W 1954 r. nastąpiła rewolucja – na rynku pojawiły się pierwsze kolorowe telewizory CRT, które posiadały trzy kineskopy (wcześniej wspomniane działo elektronowe) zamiast jednego, przy czym każdy odpowiadał za wyświetlanie jednego z trzech kolorów: czerwonego, zielonego lub niebieskiego (model przestrzenny barw RGB).
Niedługo po tym wydarzeniu nastąpił przełom dla polskiej telewizji – w 1956 r. wyprodukowano pierwsze telewizory kineskopowe dostępne w Polsce. Nosiły nazwę Wisła i były to urządzenia skopiowane z rosyjskiego pierwowzoru. Pomimo ubogich możliwości i niezbyt wysokiej jakości sprzętu, Wisła stała się symbolem i luksusem swojej epoki. Była ona jedynym tego typu urządzeniem dostępnym w Polsce, a to, że nie miała funkcji przełączania kanałów, nie wpływało na odbiór przeciętnego użytkownika telewizji, ponieważ w tamtym czasie transmitowano wyłącznie jeden kanał telewizyjny. Rok później na naszym rynku pojawił się Belweder, czyli pierwszy telewizor oparty na polskiej myśli technicznej. Był on znacznie lepszy od poprzedniego (i jedynego) takiego urządzenia królującego w PRL-u, a standardami nie odstawał bardzo od zachodnich modeli. Kolorowa telewizja pojawiła się w Polsce po raz pierwszy w 1971 r.
Odbiegając od tematu telewizorów, technologia CRT znalazła zastosowanie jako wyświetlacz treści generowanych przez prężnie rozwijające się pierwsze komputery. Pierwszy monochromatyczny monitor kineskopowy powstał w 1973 r. Dopiero pod koniec lat 80. XX wieku do sprzedaży masowej trafiły pierwsze takie urządzenia wyświetlające kolorowy obraz. Technologia CRT została porzucona wraz z końcem drugiego tysiąclecia na rzecz lepszych odpowiedników – przestała być już używana w telewizorach i monitorach komputerowych na szeroką skalę.
Technologia LED – początki najczęściej używanych ekranów
Pierwsze ekrany wykorzystujące diody elektroluminescencyjne (ang. light-emitting diode) pojawiły się w 1962 r., jednak używały one tylko i wyłącznie czerwonych ledów, z tego też powodu nie wywołały rewolucji na rynku. Nie inaczej stało się w 1968 r., gdy firma HP zaprezentowała pierwszy kolorowy wyświetlacz LED, a rok później pierwsze urządzenie wykorzystujące ten ekran (Model 5082-7000 Numeric Indicator). Z powodu niedopracowania tej technologii takie wyświetlacze nadal nie były używane komercyjnie – świecący kolor zielony był bardziej żółtawy, a emitowanie koloru niebieskiego zużywało bardzo dużo energii, co kłóciło się z niskim poborem prądu przez takie diody. Ekrany te wciąż były monochromatyczne, aż do końca lat 80. XX wieku, kiedy wynaleziono odpowiedni sposób na produkcję ledów zielonych oraz niebieskich, co pozwoliło na szybszy rozwój tej technologii. Pierwsze telewizory LED zostały zaprezentowane przez firmę Samsung w 2009 r., czyli w tym samym, w którym pokazano pierwszy monitor komputerowy używający diod elektroluminescencyjnych do wyświetlania informacji na ekranie.
Technologia LCD – podstawowy wyświetlacz większości dzisiejszych monitorów komputerowych
Historia wyświetlaczy LCD rozpoczyna się w latach 60. XX wieku, gdy naukowcy zaczęli eksperymentować z ciekłokrystalicznymi materiałami. W 1971 r. George Heilmeier opracował pierwszy prototyp wyświetlacza LCD, który wykorzystywał efekt elektrooptyczny w ciekłych kryształach. W latach 70. i 80. LCD były stosowane głównie w prostych kalkulatorach i zegarkach, ponieważ były tańsze i bardziej energooszczędne niż tradycyjne wyświetlacze CRT. Jednak ze względu na słabą jakość obrazu oraz stosunkowo małe rozmiary, nie były one używane w monitorach komputerowych czy telewizorach. Zmieniło się to w latach 90., gdy nastąpił znaczący rozwój technologii LCD. Wyświetlacze te o większych rozmiarach stały się dostępne i zaczęto je stosować w telewizorach i monitorach komputerowych. Poprawiono także jakość obrazu, wprowadzając liczne technologie takie jak TFT (Thin-Film Transistor) oraz podświetlanie LED. Na początku XXI wieku, wyświetlacze LCD stały się powszechnie używane w różnych urządzeniach elektronicznych, takich jak telewizory, monitory komputerowe, wyświetlacze w samochodach, monitory do zastosowań medycznych i wielu innych. Wraz z postępem technologicznym technologia LCD stała się jeszcze bardziej zaawansowana. Powstały wyświetlacze o wysokiej rozdzielczości (HD, Full HD, 4K) ze zwiększoną jasnością i kontrastem, z szerokimi kątami widzenia oraz możliwością wyświetlania milionów kolorów.
Wyświetlacz plazmowy – początki dużych telewizorów
Początków tej technologii możemy dopatrywać się w latach 60. XX wieku, gdy naukowcy eksperymentowali z technologią wykorzystującą gazowe rozładowania plazmy. W 1964 r. Donald Bitzer i jego zespół opracowali pierwszy prototyp wyświetlacza plazmowego, który wykorzystywał mikroskopijne komórki z gazem, które emitowały światło pod wpływem wysokiego napięcia. W latach 70. i 80. wyświetlacze plazmowe znajdowały głównie przemysłowe zastosowania, takie jak wskaźniki w laboratoriach i urządzeniach pomiarowych, ze względu na możliwości wyświetlania dużych ilości informacji i szerokiego kąta widzenia. Przez swoją kosztowność i ograniczoną żywotność, a także szybki rozwój technologii LCD w tym czasie, przyszłość wyświetlaczy plazmowych stanęła pod znakiem zapytania – zaprzestanie ich produkcji zostało zaplanowane przez IBM, jedną z największych firm technologicznych w tamtym czasie, na 1987 rok.
Jednak w latach 90. nastąpił znaczący rozwój technologii wyświetlaczy plazmowych. Stosowane materiały, takie jak ksenon i neon, umożliwiły poprawę jasności i kontrastu obrazu. Ponadto, wprowadzenie matrycy pikseli umożliwiło wyświetlanie kolorowych obrazów. W tym okresie, wyświetlacze plazmowe zaczęły być używane w telewizorach o dużych przekątnych ekranu. Charakteryzowały się one wysoką jakością obrazu, głębokimi czerniami, cienką budową i oraz dobrym odwzorowaniem kolorów. Popularność telewizorów plazmowych rosła, a technologia ta znalazła zastosowanie również w monitorach komputerowych oraz w systemach wyświetlania informacji publicznej. Jednak w pierwszej dekadzie XXI wieku, wyświetlacze plazmowe zaczęły ustępować miejsca nowym technologiom, takim jak wyświetlacze LCD i OLED. Wyższe koszty produkcji, większe zużycie energii i ograniczona żywotność były głównymi czynnikami, które przyczyniły się do spadku popularności wyświetlaczy plazmowych. W 2014 r. Panasonic, ostatni duży producent telewizorów plazmowych, ogłosił zakończenie produkcji tych urządzeń. Od tego czasu wyświetlacze plazmowe zniknęły z rynku konsumenckiego, a technologia ta jest obecnie stosowana m.in. w ekranach reklamowych, tablicach informacyjnych czy wyświetlaczach w dużych salach konferencyjnych.
Technologia OLED – dzisiejszy rywal LCD
Za początek wyświetlaczy OLED uznaje się moment, gdy w latach 80. XX wieku naukowcy odkryli organiczne materiały emisyjne, które emitowały światło pod wpływem prądu elektrycznego. W 1987 r. Ching W. Tang i Steven Van Slyke opracowali pierwszy prototyp wyświetlacza OLED, który wykorzystywał cienkie warstwy organicznych materiałów półprzewodnikowych. W latach 90. rozpoczęto intensywne badania nad technologią OLED. Wyświetlacze te oferowały wiele korzyści, takich jak doskonała jakość obrazu, szerokie kąty widzenia, cienka konstrukcja i możliwość elastycznego ugięcia. Były one również bardziej energooszczędne niż tradycyjne wyświetlacze LCD. Na początku XXI wieku, wyświetlacze OLED zaczęły być stosowane w urządzeniach przenośnych – smartfonach i tabletach, a także w telewizorach. Ich elastyczność pozwoliła na tworzenie zakrzywionych i giętkich ekranów, co otworzyło nowe możliwości projektowania i interakcji użytkowników. Technologia ta szybko zdobyły popularność ze względu na rewolucyjną jakość obrazu. Każdy piksel wyświetlacza OLED może samodzielnie emitować światło. Aby otrzymać czarną barwę, pojedynczy piksel nie emituje żadnego światła, co przekłada się na nieskończoną głębię czerni i wysoki kontrast. Ponadto, wyświetlacze OLED oferują żywe i dynamiczne kolory oraz płynne odświeżanie obrazu. W ciągu ostatnich lat technologia OLED stale się rozwija. Powstały wyświetlacze OLED o coraz większych przekątnych, wyższej rozdzielczości (w tym rozdzielczość 4K i 8K) oraz jeszcze bardziej efektywnym zużyciu energii – możemy się spotkać z terminami takimi jak AMOLED, Super AMOLED, Dynamic AMOLED, Super Retina, ale wszystkie te technologie są rozwinięciem pierwotnych założeń OLED-a. Wyświetlacze OLED znalazły również zastosowanie jako wyświetlacze w laptopach czy konsolach przenośnych (PS Vita czy Nintendo Switch OLED), natomiast dzięki ich elastyczności używane są także w tzw. składanych smartfonach. Obecnie są jednymi z najbardziej zaawansowanych technologicznie wyświetlaczy na rynku. Mimo konkurencji ze strony innych technologii, OLED pozostają popularne i kontynuują rozwój, dążąc do jeszcze bardziej spektakularnych osiągnięć.
Technologia VR – przyszłościowy sposób wyświetlania treści?
Wraz z szybkim rozwojem technologii w drugiej połowie XX wieku zaczęto zastanawiać się nad symulacją angażującą więcej zmysłów niż tylko wzrok i słuch. Tworzono pierwsze prototypy urządzeń, które miałyby powstać w przyszłości i oferować doznania angażujące również dotyk czy węch. W latach 1970-1990 wirtualna rzeczywistość (ang. Virtual Reality) była narzędziem wykorzystywanym głównie w medycynie, przez NASA czy wojsko. W tym czasie pojawiało się coraz więcej pomysłów, żeby wprowadzić tę technologię do powszechnego użytku. U schyłku lat 80. XX wieku zaprezentowano pierwsze połączenie technologii VR z komputerem klasy PC, uwzględniając również generowanie grafik na ekranie VR w czasie rzeczywistym (przy pomocy komputera). Przełom nadszedł w latach 90., ponieważ oprócz wcześniejszego zastosowania tej technologii, zaczęto produkować także urządzenia skierowane na rynek konsumencki. Pierwszy ‘headset’ VR służący do rozrywki został ogłoszony przez firmę SEGA w 1991 r. (finalnie nie został wypuszczony z obawy o zdrowie klientów), natomiast konkurencyjna firma Nintendo wypuściła w 1995 r. konsolę Virtual Boy. Były one prekursorami w świecie okularów VR służących do rozrywki i mocno różniły się od swoich dzisiejszych odpowiedników – na przykład urządzenie od japońskiej firmy cechowało się podstawką, na której urządzenie musiało być oparte o jakąś powierzchnię, a także monochromatycznym wyświetlaczem LED w kolorach czerwonych.
Rynek omawianej technologii nie doświadczył żadnych poważniejszych zmian aż do 2012 r., gdy po wcześniejszych prototypach firma Oculus VR zaprezentowała swoje pierwszy model okularów wirtualnej rzeczywistości nazwanym Rift na targach gier wideo E3; ta sama firma została wykupiona przez Facebook’a za 3 mld dolarów. Późniejsze lata były obfite w liczne premiery urządzeń firm takich jak Valve, HTC, Sony czy nawet Samsung (okulary przeznaczone głównie do smartfonów tej firmy). Z biegiem lat technologia ta była i nadal jest usprawniana – na przykład okulary Oculus Quest 2 posiadają po jednym wyświetlaczu LCD o rozdzielczości 1832 x 1920 na każde oko. Kolejną rewolucją w tej dziedzinie na pewno będzie wypuszczenie na rynek ogłoszonych już Apple Vision Pro przez firmę z Kalifornii. Będą to nie tylko wirtualnej, ale również rozszerzonej rzeczywistości – mają pozwalać na łączenie elementów świata wirtualnego ze światem codziennym.