wrzesień, 2019
abstrakt
W czasach, gdy została wydana Logika odkrycia naukowego Poppera, metoda hipotetyczno-dedukcyjna była – zdaniem hipotetystów – jedyną, która mogła wtedy znaleźć zastosowanie w naukach empirycznych. Metoda indukcyjna była bowiem, ze
abstrakt
W czasach, gdy została wydana Logika odkrycia naukowego Poppera, metoda hipotetyczno-dedukcyjna była – zdaniem hipotetystów – jedyną, która mogła wtedy znaleźć zastosowanie w naukach empirycznych. Metoda indukcyjna była bowiem, ze względu na konieczność przeanalizowania zbyt wielkiej liczby przypadków, praktycznie niewykonalna w ramach procedur badawczych nauk eksperymentalnych. Ponadto naukowcy nie dysponowali w pierwszej połowie XX wieku obszernymi bazami danych empirycznych (proste eksperymenty nie generowały dużych ilości danych) oraz urządzeniami badawczymi, które mogły pomóc w ich analizie (komputery w pierwszej połowie XX wieku nie umożliwiały operowania na dużych zbiorach danych, gdyż miały mocno ograniczoną pamięć).
Nauka pod koniec XX wieku zaczęła dysponować jednak rozbudowanymi komputerowymi systemami machine learning oraz ogromnymi bazami danych empirycznych, co umożliwiło zastosowanie z powodzeniem w badaniach naukowych metody zbliżonej do indukcji w duchu Bacona, np. w ramach grupy badawczej HHNT (Holland, Holyoaka, Nisbett, Thagard).
Jednakże na początku XXI wieku sytuacja ponownie uległa zmianie. Ogromne laboratoria naukowe (np. Wielki Zderzacz Hadronów w CERN) generują tak ogromnie duże ilości danych, których nie jesteśmy w stanie zarchiwizować w czasie rzeczywistym. Pojawiła się zatem konieczność filtrowania danych empirycznych w celu kasowania tych zapisów, co do których istnieją uzasadnione przypuszczenia, że nie wniosą niczego nowego do analizowanych podczas eksperymentu zjawisk przyrodniczych. Nie chodzi więc już tylko o wykorzystanie metod indukcyjnych do analiz ogromnych baz danych empirycznych, ale o zasadność pozbywania się danych, których nie jesteśmy w stanie zarchiwizować.
Jak wiadomo, zagadnienie Big Data jest współcześnie intensywnie analizowane i komentowane zarówno w publikacjach specjalistycznych, jak i popularnonaukowych. Najwięcej uwagi poświęca się aplikacji Big Data do zagadnień biznesowych. Wydaje się jednak, że problemy związane z Big Data dotyczą także samych nauk przyrodniczych oraz filozoficznych refleksji prowadzonych na ich bazie.
Big Data wiąże się z szybkim przetwarzaniem ogromnych ilości danych. Najczęściej dane te są analizowane w celu wychwycenia korelacji, wzorców i trendów, pomocnych np. w prognozowaniu zjawisk i tendencji, ale także ludzkich zachowań, preferencji i nawyków (konsumenckich). Z przetwarzaniem ogromnych baz danych pochodzących z przeprowadzonych eksperymentów, co zasygnalizowałem wcześniej, borykają się także przedstawiciele nauk empirycznych.
Tak więc swój referat zatytułowany „Problem Big Data w naukach eksperymentalnych” poświęcę ukazaniu specyfiki współczesnych sposobów eksperymentowania, w ramach
których wytwarza się ogromne ilości danych empirycznych (Big Data). Odpowiem w nim m.in. na następujące pytania. Czy komputerowe filtry kasujące ogromne ilości danych empirycznych nie pozbawiają naukowców interesujących poznawczo danych? Czy jesteśmy w stanie poddać racjonalnej kontroli systemy komputerowe, które w naszym imieniu pozbywają się danych nadmiarowych? Czy każde ważne odkrycie naukowe w XXI wieku, musi być uwarunkowane istnieniem ogromnych baz danych empirycznych oraz wielkich mocy obliczeniowych?
Podczas swoich rozważań odwołam się do filozofii eksperymentu opracowywanej w ramach nurtu nowego eksperymentalizmu oraz do – wymienionych wyżej – koncepcji z zakresu filozofii nauk przyrodniczych.
dzień i godzina
(środa) 12:15 - 12:45
sala
C-324 (Collegium Jana Pawła II)
organizator
Sekcja Filozofii Przyrody i Filozofii Przyrodoznawstwaprzewodniczący Sekcji ks. prof. Janusz Mączka (UPJPII)
sekretarz Sekcji o. dr Jacek Poznański SJ (AIK)