Miesięcznik informatyków i menedżerów IT sektora publicznego

Wojciech Nowakowski

E-podpis – sukces czy nieudane dziecko informatyki

Z czasów imperium rzymskiego znany jest szyfr Cezara, polegający na przesunięciu alfabetu tekstu tajnego wobec alfabetu tekstu jawnego o trzy litery. Ostrzeżenie „nie ufaj Brutusowi” po zaszyfrowaniu brzmiało więc „QLH XIDM EUXWXVRZL”.

Starożytne metody szyfrowania były prymitywne i pozwalały stosunkowo łatwo złamać używane szyfry. Dopiero w pierwszej połowie XX wieku z wykorzystaniem urządzeń elektryczno-mechanicznych zbudowano wiele złożonych systemów szyfrowania (takich jak niemiecka maszyna Enigma), których złamanie wymagało dużego wysiłku specjalistów. Wszystkie znane wówczas szyfry były szyframi podstawieniowymi, czyli takimi, w których każdy znak tekstu jawnego zastępowany jest innym znakiem tekstowym według określonego klucza, np. tabeli zamiany znaków. Szyfry te nazwano później algorytmami kryptograficznymi symetrycznymi, a to dlatego, że ten sam klucz jest używany do szyfrowania i odczytywania wiadomości.

Szyfrowanie długo było domeną władzy, wojska, a także wielkiego handlu i rynku finansowego. Stosowane metody były na ogół wystarczające, choć stale trzeba było je zmieniać i komplikować. Załamanie przyszło dopiero w połowie XX wieku, wraz z pojawieniem się komputerów i teleinformatyki – a to dlatego, że informacje cyfrowe przesyłane w sieciach rozległych narażone są na naruszenie ich poufności, zniekształcenie i zniszczenie. Konieczność szyfrowania informacji cyfrowej stała się więc niezbędna i powszechna.

Kryptografia symetryczna i asymetryczna

Podstawową wadą kryptograficznych algorytmów symetrycznych jest to, że ten sam klucz służy do szyfrowania i odczytywania wiadomości. Klucz ten musi więc być tajny i, co gorsza, przekazywany odbiorcy informacji. Jak więc zapewnić poufność transmisji dokumentu cyfrowego szyfrowanego kluczem, który przecież jest dokumentem cyfrowym przesyłanym przez sieć teleinformatyczną i może być skopiowany? Dawniej klucz szyfrująco-deszyfrujący (np. tabelkę podstawień lub wałek szyfrujący maszyny) można było przekazać fizycznie przez specjalnego kuriera. Trudno jednak korzystać z tej „metody” w ogólnoświatowej wymianie danych cyfrowych.

Pierwszy na świecie komputer (Eniac, Electronic Numerical Integrator And Computer) uruchomiono w 1947 r., pierwszy polski (XYZ) – zaledwie 11 lat później. W latach 60. XX wieku istniały już sieci, przez które masowo przesyłano informacje cyfrowe. Starano się więc pilnie rozwiązać problem poufności tych transmisji, tworząc coraz bardziej skomplikowane algorytmy szyfrowania. Pierwszym algorytmem był LUCIFER. Ponieważ był on mało odporny na złamanie, opracowano poprawiony algorytm – DES (Data Encryption Standard). W roku 1977 został on zaakceptowany przez Narodowy Instytut Standardów i Technologii USA. Kolejnym rozwinięciem, jednym z wielu zaproponowanych, był algorytm IDEA (International Data Encryption Algorithm).

[...]

Autor jest informatykiem, profesorem nadzwyczajnym w Instytucie Maszyn Matematycznych w Warszawie. Zajmuje się wykorzystaniem metod kryptografii współczesnej w teleinformatyce w technologii klasycznej i kwantowej.

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma. Zapraszamy do składania zamówień na prenumeratę i numery archiwalne.
 
 

Polecamy

Biblioteka Informacja Publiczna

Specjalistyczne publikacje książkowe dla pracowników administracji publicznej

więcej