Sieci społeczne z powodzeniem mogą być modelowane za pomocą grafów. Badania wskazują, że założenia geometrii hiperbolicznej można dostrzec podczas tworzenia się wielu rzeczywistych sieci społecznych, szczególnie tych, które oparte są na mechanizmie doboru preferencyjnego. Zaprezentujemy przykłady sieci zanurzonych przez nas w przestrzeni hiperbolicznej przy użyciu naszego programu do hiperbolicznej wizualizacji bezskalowych grafów (RogueViz).
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:00

Dorota Celińska WNE UW, Eryk Kopczyński MiMUW, Tomasz Kopczewski WNE UW (Wydział Nauk Ekonomicznych UW oraz Wydział Matematyki Informatyki i Mechaniki)
Community and unit - experiments and social networks
Mikroekonomia bazująca na modelu homo oeconomicusa sprowadza decyzje ekonomiczne do wyborów indywidualnych. Tego typu podejście ruguje bardzo ważny składnik życia ekonomicznego, jakim jest zdolność ludzi do grupowego działania. W podręcznikach trudno jest doszukać się problemu określonego przez Hayeka: how to utilize human knowledge when it is not and cannot ever be given to anyone in its totality. Przyjmując podstawowe założenie o pełnej informacji oraz, że indywidualna racjonalność jest wystarczająca do podjęcia optymalnych decyzji, można nabrać przekonania, że praca zbiorowa nie przynosi znaczącej wartości dodanej. * >Eksperyment „wyspy” – inteligencja zbiorowa< Przedstawimy wyniki eksperymentu, w którym studenci rozwiązywali oryginalny problem algorytmiczny. Rozwiązywany problem wyewoluował z prostego eksperymentu klasowego, którego celem było zademonstrowanie znaczenia różnic w relacjach wymiennych w handlu międzynarodowym. W pierwotnej wersji eksperymentu studenci jako przemytnicy mieli handlować dwoma towarami, podróżując miedzy dwoma krajami. W nowszych wersjach wyspy zastąpiły kraje, wprowadzono więcej dóbr, a drogę zdefiniowano przez graf niepełny z zadanymi kosztami przepłynięcia miedzy wyspami. Ostatecznie problem przyjął formę: studenci mieli odbyć maksymalnie 20 podróży między wszystkimi 10 wyspami, wypływając i wracając na tą samą wyspę. Handlować mieli czterema dobrami. Ceny tych dóbr były różne na każdej wyspie i w czasie podróży się nie zmieniały. Graf składający się z 20 krawędzi określał możliwe kierunki i koszty przepłynięcia z wyspy na wyspę.* >Sieci społeczne w klasie< Przedstawimy wyniki badania polowego dotyczącego studentów Wydziału Nauk Ekonomicznych uczęszczających na ćwiczenia z przedmiotu Ekonometria. W trakcie każdej kartkówki studenci samodzielnie wybierali, w jakim miejscu usiądą. Wykorzystywany zbiór danych zawiera również informacje o osobistych charakterystykach studentów (np. płeć) i osiąganych przez nich wynikach. * >Grafy w przestrzeni hiperbolicznej< Sieci społeczne z powodzeniem mogą być modelowane za pomocą grafów. Badania wskazują, że założenia geometrii hiperbolicznej można dostrzec podczas tworzenia się wielu rzeczywistych sieci społecznych, szczególnie tych, które oparte są na mechanizmie doboru preferencyjnego. Zaprezentujemy przykłady sieci zanurzonych przez nas w przestrzeni hiperbolicznej przy użyciu naszego programu do hiperbolicznej wizualizacji bezskalowych grafów (RogueViz).
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:30

Katarzyna Madej-Sokołowska (Wydział Fizyki UW)
Multifractal analysis of stock market data
Notowania giełdowe wykazują samopodobieństwo o charakterze probabilistycznym. Na pierwszy rzut oka nie sposób odróżnić, czy na wykresie przedstawione są dane roczne, miesięczne czy dzienne. Okazuje się nawet, że dane wykazuję o wiele ciekawszą strukturę - są multifraktalami probabilistycznymi. Na seminarium przedstawione zostaną podstawowe informacje o multifraktalach, a także dwie ciekawe metody analizy danych - 'Multifractal Detrended Fluctuation Analysis' jako podstawową formę analizy pojedynczych sygnałów oraz 'Multifractal Cross-Correlation Analysis' służącą do określania korelacji pomiędzy dwoma sygnałami. Zwłaszcza druga z wymienionych jest szczególnie użyteczna, ponieważ może być wykorzystana do rozpinania sieci, co również przedstawione zostanie na seminarium. Dodatkowo zaprezentowana zostanie metoda analizy entropowej i wskazana zostanie jej użyteczność w identyfikacji przemian fazowych.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:00

Michał Kotlewski (Wydział Fizyki UW)
Analysis of Forex by the statistical physics methods
W referacie przedstawione zostaną wyniki fenomenologicznej analizy danych z rynku Forex (wielkości zmian kursu i czasów międzytransakcyjnych ). Referat oparty jest na pracy magisterskiej Mateusza Sz. Dąbrowskiego.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:00

Marcin Rybak (AGH, Kraków)
Competing contact processes on the Watts-Strogatz network
W referecie zostaną przedstawione wyniki symulacji procesów kontaktowych na sieci Wattsa-Strogatza o modyfikowalnym współczynniku gronowania. Zaprezentowane będą dwa modele reguł przejść dla procesów kontaktowych: bazujące na modelu Sznajdów i modelu nazywanym „z sąsiedztwem”. W przypadku pierwszego modelu, obecność w sieci pary węzłów tego samego typu (nazwijmy go D) powoduje - z prawdopodobieństwem będącym parametrem symulacji - zmianę stanu wszystkich sąsiadów innego typu (nazwijmy go S) tej pary na D. Procesem współzawodniczącym z powyższym był proces o regułach zdefiniowanych na podstawie modelu inwazji. Polegają one na tym, że wylosowany węzeł typu S zmienia typ jednego losowo wybranego sąsiada z D na S. Natomiast w modelu „z sąsiedztwem”, obecność w sieci pary połączonych ze sobą węzłów tego samego typu powoduje zmianę stanu tylko jednego, losowo wybranego węzła, będącego sąsiadem zarówno pierwszego jak i drugiego węzła tej pary. W tym przypadku procesem współzawodniczącym był proces o regułach inspirowanych modelem wyborcy. Polegają one na tym, że wylosowany węzeł typu D przyjmuje — z prawdopodobieństwem będącym parametrem symulacji — typ S jednego ze swoich sąsiadów. Przedstawione zostaną wyniki obrazujące wpływ różnych wartości parametrów symulacji, związanych zarówno z właściwościami strukturalnymi sieci (średni stopień wierzchołków czy współczynnik gronowania) jak i właściwościami samych procesów kontaktowych (prawdopodobieństwa zaaplikowania reguł przejść dla węzłów danego typu) oraz początkowym udziałem węzłów danego typu w sieci na dynamikę wspomnianych procesów kontaktowych.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:00

Jarosław Klamut (Wydział Fizyki UW)
Autocorrelations of price increments and absolute values of their increments on stock market
Prezentacja dotyczyć będzie autokorelacji zmian cen i modułu zmian cen na giełdzie. Przedstawione rezultaty otrzymane zostały w wyniku symulacji na danych empirycznych z polskiej giełdy. Badano przyczyny wolno zanikającej autokorelacji modułu zmian cen. W drugiej części prezentacji opiszę proces Hawkesa (samowzbudzający się proces punktowy z pamięcią) oraz sposób i wyniki dopasowania jego przewidywań do danych empirycznych. Przedstawię wynikające stąd wstępne wnioski.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:00

Mateusz Wiliński (Wydział Fizyki UW)
Complex Principal Component Analysis for High Frequency Financial Data
Analiza Głównych Składowych (Principal Component Analysis) jest doskonale znaną metodą analizy czynnikowej. Znajduje ona zastosowanie w wielu dziedzinach, między innymi w geofizyce, neuronauce oraz finansach. Rozszerzeniem tej metody jest Zespolona Analiza Głównych Składowych (Complex Principal Component Analysis), która pozwala na uwzględnienie przesunięcia w czasie, pomiędzy analizowanymi sygnałami/procesami. Podczas swojego wystąpienia przybliżę obie powyższe metody wraz z przykładami. Następnie przedstawię nową metodologię, pozwalającą na precyzyjną estymację zespolonych korelacji, a tym samym zastosowanie CPCA w przypadku danych empirycznych o zmiennym kroku czasowym. Na koniec pokażę wyniki opisywanych metod dla danych tickowych z Giełdy Tokijskiej.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:00

Jarosław Klamut (Wydział Fizyki UW)
Continuous time random walk with correlated waiting times
Referat dotyczyć będzie błądzenia losowego w czasie ciągłym z uwzględnieniem korelacji pomiędzy czasami wyczekiwania. Przedstawione będą wyniki z aktualnych prac w tym temacie. Anomalna dyfuzja otrzymywana w tych modelach wynika z postaci rozkładów czasów wyczekiwania i wielkości skoków (rozkłady alfa-stabilne) oraz wprowadzonych zależności pomiędzy czasami wyczekiwania (pamięć eksponencjalna, wykładnicza oraz błądzenie losowe czasów wyczekiwania).
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:00

Dr Christophe Schinckus (University of Leicester)
1996-2016: Two decades of econophysics: Between methodological diversification and conceptual coherence
This seminar aimed at presenting the scattered econophysics literature as a unified and coherent field through a specific lens imported from philosophy science. More precisely, I used the methodology developed by Imre Lakatos to cover the methodological evolution of econophysics over these last two decades. In this perspective, three co-existing approaches have been identified: statistical econophysics, bottom-up agent based econophysics and top-down agent based econophysics.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:30

Piotr Kosewski (Wydział Fizyki UW)
Modeling damage insurance - analysis of aggregate data and detailed
Pomimo rozwoju technologicznego i upowszechnienia komputerów,modelowanie aktuarialne w znacznym stopniu wciąż opiera się o technikistworzone z myślą o obliczeniach "na kartce". Jednak, wraz ze wzrostem ilości dostępnych danych oraz możliwości ich analizy, coraz większą popularnością cieszą się metody symulacyjne czy związane z tematyką Big Data. W referacie omówię praktyczne podstawy modelowania szkód, tradycyjne techniki obliczeń na danych zagregowanych oraz problemy wynikające z ich stosowania. Następnie przejdę do współcześnie rozwijanych metod o większej złożoności obliczeniowej
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:30

Mateusz Wiliński (Wydział Fizyki UW)
Correlation and market structure for high frequency financial data
Wykorzystanie technik korelacyjnych i grafowych jest skuteczną metodą analizowania struktury rynkowej na podstawie notowań giełdowych. Najpopularniejszym estymatorem korelacji stosowanym do danych finansowych jest korelacja Pearsona. Jej zasadniczy problem tkwi w założeniu stałego kroku czasowego co wymaga agregacji danych i skutkuje utratą części informacji. W swojej prezentacji pokażę kilka metod pozwalających na analizowanie niezaagregowanych danych i wykorzystam je w analizie grafowej spółek największego japońskiego indeksu giełdowego: Nikkei 225. Odniosę się również do znanego efektu Eppsa i spróbuję odpowiedzieć na pytanie czy podobny efekt można zaobserwować dla topologii rynku.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:30

Denis Dobkowski-Ryłko (Wydział Fizyki UW)
Analysis stream of orders listed with particular emphasis on the effects of memory. Comparison of Japanese and British stock exchanges
Przedmiotem referatu jest statystyczna charakterystyka księgi zleceń, która dokonana została na podstawie danych z giełdy londyńskiej i tokijskiej. Przedstawione zostaną wyniki badań długiej pamięci strumienia zleceń uwzględniające m.in. autokorelację znaków wszystkich zleceń oraz znaków zleceń inicjujących transakcje. Do opisu dynamiki księgi zleceń wykorzystany zostanie model wirtualnej cząstki Browna zanurzonej w cieczy zleceń, który zaproponowany został przez Y. Yura, H. Takayasu, D. Sornette i M. Takayasu w pracy Financial Brownian Particle in the Layered Order-Book Fluid and Fluctuation-Dissipation Relations [Phys. Rev. Lett. 112,098703(2014)], do opisu kursu wymiany USD i JPY na rynku Forex. Przedstawiony zostanie również model giełdy będący alternatywą dla tzw. zero intelligence models.
Zapraszamy do sali 1.03, ul. Pasteura 5 o godzinie 18:30

Jarosław Kwapień (Wydział Fizyki UW)
How to measure the higher-order correlations between non-stationary data
Standardowe miary korelacji, takie jak współczynnik Pearsona, są nieodpowiednie do ilościowej analizy danych niestacjonarnych. O wiele lepiej swą rolę spełnia miara oparta na fluktuacjach pozbawionych trendu, którą można zdefiniować w sposób analogiczny do współczynnika Pearsona, ale w oparciu o tzw. funkcje fluktuacji rzędu q, gdzie q ma wartość rzeczywistą. Taka definicja pozwala na stworzenie swoistego filtru, umożliwiającego badanie korelacji pomiędzy fluktuacjami o wybranym zakresie amplitud. W przypadku danych wielokanałowych współczynnik korelacji zdetrendowanych rzędu q może zostać użyty w analizie sieciowej do konstrukcji odpowiednio zmodyfikowanych drzew MST. Drzewa takie można z powodzeniem wykorzystać w analizie danych empirycznych, pochodzących na przykład z rynków finansowych.