REKLAMA


 

REKLAMA


 

Umysł ponad maszyną Jakub Ostałowski (www.jakubostalowski.com)

Jak układa się życie człowieka z maszynami i czy można mu w tej relacji zapewnić bezpieczeństwo, mówi prof. dr hab. inż. Roman Słowiński z Politechniki Poznańskiej.


Slowinski_Roman

Naszym rozmówcą jest

prof. dr hab. inż. Roman Słowiński 
Politechnika Poznańska 
e-mail: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.  

 

Prof. dr hab. inż. Roman Słowiński jest założycielem i kierownikiem Zakładu Inteligentnych Systemów Wspomagania Decyzji w Instytucie Informatyki Politechniki Poznańskiej. Jego specjalnością naukową jest informatyka, a w szczególności „inteligentne systemy wspomagania decyzji”, na które składają się badania operacyjne, sztuczna inteligencja i nowe technologie informatyczne. Laureat Nagrody FNP z 2005 r. W grudniu 2018 r. został wybrany na wiceprezesa PAN na kadencję 2019–2022. 

 

 


Dlaczego potrzebujemy dalszego postępu technologicznego? Czy poziom, jaki już osiągnęliśmy, nie wystarczy?
Roman Słowiński:
Pojęcie postępu technologicznego sugeruje ciąg, który w każdej chwili ma swój stan aktualny, przeszły i przyszły. Stanu przyszłego nie ogranicza żaden zbiorowy rozsądek, bo taki moim zdaniem nie istnieje. Historia pokazuje, że ludzie zawsze starali się pokonywać ograniczenia i na starym budowali nowe, z intencją usprawnienia technologii, jaką zastawali. Na każdym etapie rozwoju przystosowywali się do bieżącego stanu i stawali przed pytaniem „czy nie wystarczy już poziom, jaki osiągnęliśmy?”. Jednak ambicja nowych pokoleń i chęć poprawy jakości życia nieustannie stymulowały to, co umownie nazywamy postępem technologicznym.

Słowa „postęp” nie używam tu z przekonaniem, ma ono bowiem zabarwienie jednoznacznie pozytywne, a wiemy, że skutki odkryć naukowych i technologicznych dość rzadko są w pełni pozytywne. Wystarczy przywołać tu przykład energii atomowej lub inżynierii genetycznej człowieka. Niektórzy mówią, że postęp technologiczny wynika z lenistwa człowieka, a inni, że z jego zachłanności i niepohamowanej żądzy panowania nad światem, czyli przypisują go niechlubnym cechom rodzaju ludzkiego. Moim zdaniem w postępie technologicznym mają udział oba oblicza natury człowieka – dobre i złe – stąd postęp stanowi wypadkową walki tych sił w każdym z nas. Wymaga on zatem wzrostu samego człowieka, nie tylko w zakresie jego wiedzy, ale także ducha, który wspomaga rozpoznanie dobra i zła. 

 

Jakie są najistotniejsze współczesne osiągnięcia? Do jakich nowych rozwiązań dążymy?
Jesteśmy świadkami bezprecedensowego przyspieszenia rozwoju technologicznego w bardzo wielu dziedzinach życia. Ja skupię się na rewolucji wynikającej z cyfryzacji, czyli numerycznego kodowania (0‒1) informacji w celu jej transformacji algorytmicznych (obliczeń) i przesyłania na odległość (telekomunikacji). Okazało się, że tak kodowaną informację można efektywnie przetwarzać za pomocą komputera wyposażonego w pamięć i jednostkę arytmetyczno-logiczną zbudowaną z prostych tranzystorowych układów przełączających realizujących funkcje logiczne: sumy (alternatywy), iloczynu (koniunkcji) i negacji.

Od zaproponowania pierwszej architektury komputera przez Johna von Neumanna i współpracowników w 1945 r. obserwujemy niezwykły postęp w technice obliczeń cyfrowych. Fizycznie rzecz ujmując, jest to postęp wykładniczy, gdyż liczba tranzystorów, jakie można umieścić w pojedynczym układzie scalonym – a co za tym idzie, moc obliczeniowa komputerów – podwajała się co 18 miesięcy. Ewolucja układów scalonych przeszła od jednego tranzystora na płytce do 100 mln w ciągu zaledwie 40 lat. Z kolei szybkość komunikacji – przewodowej i bezprzewodowej – podwajała się co 12 miesięcy, a szybkość obliczeń wzrosła od 5000 operacji dodawania na sekundę w pierwszym komputerze ogólnego zastosowania ENIAC, do 1018 operacji zmiennoprzecinkowych na sekundę, czyli exaFLOPS, w najnowszych superkomputerach.

Taki postęp nie jest oczywiście obojętny, ani dla życia społecznego, ani dla nauki i jej przestrzennej organizacji. Stworzenie światowej sieci komputerowej, zwanej Internetem, sprawiło, że świat stał się „globalną wioską”, w której wszyscy mogą się komunikować ze wszystkimi, oczywiście pod warunkiem posiadania dostępu do sieci. Ponadto do sieci włączają się nie tylko komputery, ale liczne urządzenia typu telefony, pojazdy, kamery, a nawet lodówki, tworząc tzw. Internet Rzeczy (Internet of Things – IoT). Z punktu widzenia nauki sieć komputerowa dokonała rewolucji nie tylko w komunikacji między uczonymi, ale także w podejściu do odkryć naukowych, tworząc wirtualne środowisko zasobowe (laboratoria wirtualne) i infrastrukturę dla usług obliczeniowych „na żądanie” w trybie przetwarzania sieciowego (grid) lub w chmurze (cloud). 

Niestety, nie wszyscy jeszcze mają równie łatwy dostęp do Internetu. To spowodowało „cyfrowy” podział świata, a w tej jego części, w której jest dostęp do sieci, ma miejsce postępująca demokratyzacja nauki. Podam przykład czasopisma naukowego o 40-letniej historii, które redaguję od 20 lat i które przeszło od nakładu 600 egz. papierowych do dostępu sieciowego w 2006 r. Jeśliby przyjąć, że w „epoce papierowej” do czasopisma tego zaglądało ok. 10 tys. czytelników rocznie, to proszę to porównać z liczbą 3 mln „ściągnięć” artykułów w ubiegłym roku. Odpowiadając zatem na pytanie, do jakich rozwiązań dążymy, trzeba powiedzieć, że w tej technologii zmierzamy do jej udostępnienia całemu światu i likwidacji wspomnianego podziału cyfrowego. 

 

Jak działa komputerowe wspomaganie decyzji? Jakie problemy pomaga rozwiązać i w jakim punkcie rozwoju tej specjalności  się znajdujemy?
Wspomaganie człowieka w podejmowaniu decyzji jest misją informatyki i najważniejszym dla niej wyzwaniem. Uważam tak, gdyż tempo gromadzenia danych przez współczesne systemy informatyczne jest większe od zdolności ich zrozumienia. Z tego powodu wzrasta zapotrzebowanie na przetwarzanie danych do postaci wniosków użytecznych przy podejmowaniu decyzji, czyli zapotrzebowanie na odkrywanie wiedzy z danych. Jeśli gromadzenie i przesyłanie danych można kojarzyć z „bierną” funkcją systemów informatycznych, to odkrywanie wiedzy z danych wymaga rozwoju funkcji „aktywnej”, nazywanej także inteligencją maszynową lub sztuczną inteligencją.

Specjaliści od komputerowego wspomagania decyzji starają się odpowiadać na to właśnie wyzwanie. Ich działanie dotyczy następujących etapów: modelowanie matematyczne problemu decyzyjnego z użyciem modeli analitycznych lub logicznych, modelowanie preferencji użytkowników usługi wspomagania i organizacja procesu wypracowywania rekomendacji, często w trybie dialogu maszyny z użytkownikiem.

Coraz częściej także modelowanie zarówno problemu decyzyjnego, jak i preferencji użytkownika, odbywa się na zasadzie indukcyjnego odkrywania wzorców prawdziwych w świecie analizowanych danych. Jest to paradygmat tzw. uczenia maszynowego (machine learning). Wzorce to różnego rodzaju hipotezy, uogólnienia, asocjacje i trendy reprezentowane przez funkcje matematyczne, w tym sztuczne sieci neuronowe, i wyrażenia logiczne typu reguły lub drzewa decyzyjne. Wzorce są użyteczne do wyjaśniania sytuacji opisanych przez dane oraz do predykcji przyszłych sytuacji. Warto dodać, że w coraz większym stopniu naukowcy tej specjalności radzą sobie z danymi niepełnymi, niedokładnymi, podlegającymi przypadkowym fluktuacjom i częściowo sprzecznymi.

Wachlarz problemów decyzyjnych, które mogą być wspomagane w ten sposób, jest bardzo szeroki: od decyzji menedżerskich i finansowych, przez decyzje w projektowaniu inżynierskim, po decyzje kliniczne w medycynie. Nawet nasze codzienne decyzje są wspomagane w ten sposób, czy tego sobie życzymy, czy nie, kiedy np. dokonamy jakiegoś zakupu przez Internet, to za moment, po otwarciu przeglądarki internetowej w zupełnie innym celu, pojawiają się nam reklamy podobnych produktów. Jeśli chodzi o stan obecny komputerowego wspomagania decyzji, to jest on naprawdę zaawansowany. Weźmy na przykład rozpoznawanie twarzy, które należy do specjalności wspomagania decyzji z informacji obrazowej. W Chinach, gdzie zainstalowanych jest obecnie kilkaset milionów kamer, możliwości systemu monitoringu są już tak zaawansowane, że odnalezienie szukanej osoby na jednej z chińskich ulic zajmuje mniej niż 10 min. 

 

Jakie zadania przewiduje się dla komputerowego wspomagania decyzji w przyszłości?
Zapotrzebowanie na te usługi rośnie, więc wyzwań jest wiele. Skupiając się na przykładzie medycyny, w ostatnim dziesięcioleciu wspomaganie decyzji klinicznych kierowało się zasadą „medycyna oparta na faktach”. Chodzi o podejmowanie decyzji klinicznych na podstawie najlepszych aktualnych dowodów dotyczących działania różnych form leczenia. Wyzwaniem stało się udostępnienie lekarzowi w każdym miejscu i czasie zasobów medycznych istotnych w aktualnym kontekście, np. z takich serwisów jak PubMed czy Cochrane Library. Wiadomo mi, że problem ten rozwiązano już w wielu miejscach, natomiast nowym wyzwaniem jest tzw. spersonalizowana medycyna, która pozwala przewidzieć, czy określona terapia okaże się skuteczna dla danego pacjenta. 

We wspomaganiu decyzji klinicznych trzeba odwołać się do wiedzy z zakresu genetyki, genomiki i proteomiki. Z jej pomocą należy tak powiązać diagnostykę i terapię, aby dopasować lek do konkretnego pacjenta, a nie do danej choroby. Jest to nie lada wyzwanie dla komputerowego wspomagania decyzji. Z uwagi na przekazywanie komputerowi coraz bardziej złożonych zadań intelektualnych przerastających wydajność człowieka określamy dziś komputerowe wspomaganie decyzji mianem sztucznej inteligencji lub inteligentnym wspomaganiem decyzji.

 

Jakimi argumentami rozwiać obawy, że tego typu rozwiązania powodują u nas jeszcze większy problem z podejmowaniem decyzji, co – jak mówią psychologowie – i tak sprawia nam zwykle niemałą trudność?
Sadzę, że to nie komputerowe wspomaganie decyzji czy sztuczna inteligencja powodują u nas problem niezdecydowania, ale raczej gwałtownie zwiększająca się liczba opcji do wyboru. Współczesny człowiek, który ma informacje o całym świecie „on-line”, obawia się, że wcześnie podjęta decyzja skieruje go na tory, które zawężą mu zakres możliwości wyboru i nie skorzysta już z innych opcji, które może okazałyby się atrakcyjniejsze. Moim zdaniem ten paraliż decyzyjny wynika z połączenia strachu przed nieznanym z dążeniem do optymalnego wyboru – to odsuwa decyzję „na potem”.

Obserwuję ten dylemat u wielu młodych ludzi i, gdy pytają, radzę im (bez komputera): podejmij decyzję może nie optymalną, ale satysfakcjonującą, bo taka decyzja jest bardziej odporna na zakłócenia niż optimum, którego nie znasz, a które zapewne znajdzie się na brzegu ograniczeń.

W przeciwieństwie do ludzkiego niezdecydowania, komputerowe wspomaganie decyzji zmierza zwykle do konkluzji, czasami kosztem uproszczeń. Zatem jego zalecenia nie rozpraszają zakresu możliwych decyzji lecz, przeciwnie, zawężają go. Z kolei z powodu wspomnianych uproszczeń nie należy zdawać się bezkrytycznie na decyzję komputera.

Tu dochodzimy do istotnej roli analityka, czyli informatyka tworzącego system wspomagania decyzji. Jak widać, jego rola ma wymiar etyczny, którego waga zależy od konsekwencji zalecenia rekomendowanego przez system. 

 

geralt/www.pixabay.com

 

W czym ma nam pomóc sztuczna inteligencja?
Sztuczna inteligencja nie jest pojęciem nowym, bo zostało ono użyte po raz pierwszy w 1956 r., ale w ostatnich latach znalazło się na ustach polityków i słyszymy je w każdym wizjonerskim przemówieniu na temat innowacyjnego rozwoju. Wielu polityków głosi obecnie, że od tego, czy sztuczna inteligencja stanie się częścią gospodarki, zależeć będzie możliwość osiągnięcia lub utrzymania konkurencyjności kraju.

Początkowa euforia związana ze sztuczną inteligencją, która sprawi, że wkrótce maszyna zastąpi człowieka w myśleniu, ustąpiła w latach 60. realizmowi spójnemu ze skromniejszą definicją sztucznej inteligencji podaną przez Norberta Wienera: inteligencja jest procesem pozyskiwania i przetwarzania informacji dla osiągania wyznaczonych celów. Tak rozumiana sztuczna inteligencja odnosi spektakularne sukcesy w przetwarzaniu i rozpoznawaniu obrazów, rozpoznawaniu i syntezie mowy oraz analizie tekstów i przetwarzaniu języka naturalnego. Jest to rozwój pozytywny, sprzyjający symbiozie pomiędzy ludźmi a systemami inteligentnymi.

Istotnym polem zastosowań sztucznej inteligencji jest eksploracja dużych wolumenów danych, w tym danych pochodzących z Internetu (big data). W związku z tym rozwija się analityka danych (data-driven analytics) polegająca na przekształcaniu surowych danych z różnych źródeł w wiedzę wykorzystywaną do podejmowania lepszych decyzji. Do obiegu weszło także określenie nauka o danych (data science).

Powstałe algorytmy stanowiące instrumentarium sztucznej inteligencji są na razie prostymi inspiracjami naturalnych procesów zachodzących w przyrodzie, a w szczególności w naszym mózgu – takim przykładem są głębokie sieci neuronowe. Dalszy rozwój tych algorytmów zależy od lepszego zrozumienia przyrody i pracy naszych mózgów. W ostatnim dziesięcioleciu rozwinęła się neurokognitywistyka, czyli nauka zajmująca się analizą działania i modelowaniem zmysłów, mózgu i umysłu ludzkiego. Powstały też interfejsy mózg-komputer odczytujące intencje, rozproszenie uwagi, nastrój i stany emocjonalne, umożliwiające wgląd i, z jednej strony, usprawnianie działania zdrowych mózgów oraz, z drugiej strony, bezpośrednią ingerencję w nieprawidłową pracę mózgu. Badania te rodzą nadzieję na zastosowanie sztucznej inteligencji w diagnostyce i terapii chorób mózgu. 

 

Czy nie powinniśmy się bać,  że stworzymy byt, który nas intelektualnie przerośnie i zniszczy?
Pojawiają się takie obawy i były nawet wypowiadane przez autorytety naukowe, jak Stephen Hawking. Staje się coraz bardziej prawdopodobne, że inteligencję człowieka maszyna posiądzie, ale człowiek ma jeszcze świadomość, której dotąd nie przejawiły żadne maszyny aspirujące do miana inteligentnych. To, moim zdaniem, stawia sztuczną inteligencję w roli służebnej względem człowieka i zmniejsza obawę o „bunt robotów”. Zmniejsza, bo nie eliminuje. To zależy od człowieka, w jakim stopniu uzależni się od maszyn w organizacji życia indywidualnego i społecznego. I nie chodzi tu wcale o agresję ze strony maszyn spowodowaną rozwojem ich intencjonalnej złośliwości wobec człowieka, ale raczej o ryzyko zubożenia humanizmu u ludzi, którzy delegując zbyt wiele zadań na maszyny pozbyliby się swojego poczucia godności i ograniczyli w ten sposób swoją wolność.

Jest jeszcze inny aspekt rozwoju cyfryzacji i sztucznej inteligencji, który rodzi obawy. Mam na myśli wykorzystanie technologii informatycznych przez rządy krajów niezupełnie demokratycznych do profilowania i oceny swoich obywateli. Dochodzą do nas informacje o testowaniu w pewnych dużych krajach systemu informatycznego, w którym każdy obywatel będzie miał profil cyfrowy pozwalający na ocenę nie tylko aspektów finansowych, takich jak preferencje zakupowe czy historia kredytowa, ale także zachowań społecznych i politycznych. System ten może być wprowadzony z uzasadnieniem przydatności do walki z korupcją lub terroryzmem, ale jego negatywne skutki dla społeczeństwa są łatwe do przewidzenia. 

 

Czy sztuczna inteligencja nie jest marzeniem o czymś w rodzaju człowieka doskonałego? Są koncepcje, że jest ostatnim, najwyższym ogniwem ewolucji?
Sztuczna inteligencja jest raczej marzeniem o maszynie doskonałej, a nie o człowieku doskonałym. Dlatego, moim zdaniem, maszyna ta nie bierze udziału w ewolucji gatunku ludzkiego. Rozwija się za sprawą człowieka, który programuje jej zachowanie. Oczywiście nie zawsze jest to programowanie, które ma zdeterminowane konsekwencje w działaniu maszyny. Stosowane w sztucznej inteligencji tzw. algorytmy ewolucyjne dają możliwość ewolucyjnego rozwoju różnych sztucznych agentów. Jest to dziedzina tzw. sztucznego życia (artificial life). Motywuje ją pogląd, że inteligencja maszynowa, rozumiana jako odkrywanie wiedzy z danych, nie jest procesem abstrakcyjnym, lecz wymaga osadzenia w środowisku i „ucieleśnienia”.

Ucieleśniony intelekt staje się agentem rozumianym jako „żywy” organizm, istniejący albo rzeczywiście, jako fizyczny robot, albo wirtualnie, jako robot symulowany w pamięci komputera. W wyniku ucieleśnienia powstaje oddziaływanie agent-receptory-środowisko, wymagające efektywnej koordynacji pomiędzy odbieraniem bodźców i działaniem. Dzięki ucieleśnieniu agent może dokonywać aktywnej percepcji, zmieniając sposób postrzegania obiektów, docierając do dodatkowych danych lub nawet obserwując swoje zachowanie i analizując swoją interakcję ze środowiskiem. I znów – zakres ewolucji takiego agenta i jego interakcja z człowiekiem zależy od świadomej decyzji człowieka, czyli zapotrzebowanie na humanizm u ludzi wzrasta w obliczu tych możliwości. 

 

Jakie są mechanizmy kontroli nad maszynami, które zyskują coraz więcej samodzielności (np. samochodami autonomicznymi)?
Istnieją niewątpliwie dobre skutki wdrażania autonomicznych maszyn w przemyśle. Prace niebezpieczne, nużące i wysoce powtarzalne są coraz częściej wykonywane przez roboty. Wbrew początkowym obawom nie prowadzi to do zwiększonego bezrobocia – dotychczasowi pracownicy są kierowani do bardziej twórczych i kreatywnych zadań. Proces transferu sztucznej inteligencji do przemysłu i, ogólniej, społecznego użytku napotyka jednak wiele trudności związanych ze standaryzacją i zapewnieniem bezpieczeństwa ludziom. Z tego względu obecnie w sztucznej inteligencji kładzie się nacisk na objaśnialność i interpretowalność algorytmów uczących i analitycznych będących składowymi systemów inteligentnego wspomagania decyzji (explainability). Odchodzi się od tzw. czarnych skrzynek wydających decyzje być może trafne, ale niezrozumiałe. Jest to ważne dla weryfikacji bezpieczeństwa rozwiązań operujących na styku człowiek-maszyna. To odnosi się także do samochodów autonomicznych, których działanie musi być możliwe do zinterpretowania przy, na przykład, określaniu winy za sprawstwo wypadku. 

 

Czy nie uzależniamy się coraz bardziej  od maszyn i co stałoby się z nami,  gdyby ich nagle zabrakło?
Życie pokazuje, że uzależniamy się od maszyn w coraz większym stopniu. Szczególnie widać to wtedy, gdy następuje awaria maszyn. Niedawno byliśmy świadkami cyberataku na systemy informatyczne brytyjskiej służby zdrowia. Z tego powodu w wielu szpitalach lekarze mieli bardzo ograniczony dostęp do danych pacjentów, co doprowadziło do odwołania setek zaplanowanych operacji i zabiegów, a wiele lokalnych przychodni nie było w stanie przyjmować pacjentów. Ten przykład włącza do naszej rozmowy aspekt cyberbezpieczeństwa, który jest jednym z gorących tematów informatycznych. Internet nie był bowiem przewidziany do takiego rozrostu i obecnie, w dobie wspomnianego Internetu Rzeczy, włamania do sieci z wykorzystaniem luk w urządzeniach słabo zabezpieczonych stały się prawdziwą zmorą. Cyberataki stały się także elementem wojny hybrydowej. Te fakty pokazują nasze rosnące uzależnienie od maszyn i skutki zakłóceń w ich funkcjonowaniu. 

 

Na pytania odpowiadał prof. dr hab. inż. Roman Słowiński
zdjęcie: Jakub Ostałowski
 

 

 

 

 

© Academia nr 4 (56) 2018

 

Oceń artykuł
(0 głosujących)

Tematy

agrofizyka antropologia jedzenia antropologia kultury antropologia społeczna archeologia archeometalurgia architektura Arctowski arteterapia astrofizyka astronomia badania interdyscyplinarne behawioryzm biochemia biologia biologia antaktyki biologia płci biotechnologia roślin borelioza botanika chemia chemia bioorganiczna chemia fizyczna chemia spożywcza cywilizacja demografia edukacja ekologia ekologia morza ekologia ssaków ekonomia energetyka energia odnawialna entomologia ERC 2018 etnolingwistyka etnomuzykologia etyka ewolucja fale grawitacyjne farmakologia filozofia finanse finansowanie nauki fizyka fizyka jądrowa gender genetyka geochemia środowiska geoekologia geofizyka geografia geologia geologia planetarna geoturystyka grafen historia historia idei historia literatury historia nauki historia sztuki humanistyka hydrogeologia hydrologia immunologia informatyka informatyka teoretyczna internet inżynieria inżynieria materiałowa inżynieria żywności język językoznawstwo kardiochirurgia klimatologia kobieta w nauce komentarz komunikacja kooperatyzm kosmologia kryptografia kryptologia kulinaria kultoznawstwo kultura kulturoznawstwo lingwistyka literatura literaturoznawstwo matematyka medycyna migracje mikrobiologia mineralogia mniejszości etniczne mniejszości narodowe modelowanie procesów geologicznych muzykologia mykologia na czasie nauka obywatelska neurobiologia neuropsychologia nowe członkinie PAN 2017 oceanografia ochrona przyrody orientalistyka ornitologia otolaryngologia paleobiologia paleobotanika paleogeografia paleolimnologia paleontologia palinologia parazytologia PIASt politologia polityka społeczna polska na biegunach prawo protonoterapia psychologia psychologia zwierząt punktoza Puszcza Białowieska robotyka rozmowa „Academii” seksualność slawistyka smog socjologia stratygrafia szczepienia sztuka technologia wieś w obiektywie wulkanologia zastosowania zdrowie zoologia zwierzęta źródła energii żywienie

Komentarze

O serwisie

Serwis naukowy prowadzony przez zespół magazynu Academia PAN.Academia Zapraszamy do przysyłania informacji o badaniach, aktualnie realizowanych projektach naukowych oraz imprezach popularyzujących naukę.

 

Dla użytkowników: Regulamin

Pliki cookies

Informujemy, że używamy ciasteczek (plików cookies) w celu gromadzenia danych statystycznych, emisji reklam oraz prawidłowego funkcjonowania niektórych elementów serwisu. Pliki te mogą być umieszczane na Państwa urządzeniach służących do odczytu stron, a korzystając z naszego serwisu wyrażacie Państwo zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.

Więcej informacji o celu używania i zmianie ustawień ciasteczek w przeglądarce: TUTAJ

Kontakt

  • pisz:

    Redakcja serwisu online
    Academia. Magazyn Polskiej Akademii Nauk
    PKiN, pl. Defilad 1, pok. 2110
    (XXI piętro)
    00-901 Warszawa

  • dzwoń:

    tel./fax (+48 22) 182 66 61 (62)

  • ślij:

    e-mail: academia@pan.pl