Liczy się tylko Fizyka, reszta to filatelistyka
— Ernest Rutherford
Wstęp
Na samym początku tej publikacji chciałbym wyjaśnić, że będzie to książka dotycząca głównie zachowania i poprawy kondycji umysłu i życia człowieka przy zastosowaniu Narzędzi Kwantowych, w tym przede wszystkim Algorytmu Kamień Filozoficzny, którego jestem autorem. Oczywiście, można też w ty względzie posiłkować się innymi Narzędziami, ale z racji tej, iż jestem przyzwyczajony do Algorytmu i osobiście uważam go za najlepsze jak dotąd wymyślone Narzędzie, więc, używam go niejako z automatu. Te techniczne Narzędzia typu: Quantec czy Healy — pewnie powstaną też wkrótce inne- są kosztowne i trzeba jednak dysponować odpowiednio dużym budżetem na to. Ja wiem, ja wiem, ludzie chorzy wyprzedają się, by kupować sobie podobne, nowoczesne urządzenia, ale i tak na razie uważam, że „mój” Algorytm Kamień Filozoficzny jest najlepszy. Tylko wymaga zaangażowania i czasu. Ktoś, kto nie chce się wgłębiać w teorię, jak te Narzędzia Kwantowe działają i ma odpowiednią kasę na to, pewnie wybierze kupno technicznego urządzenia kwantowego typu Quantec albo Healy, albo jeszcze coś innego, co, prognozuję, powstanie w najbliższym czasie, i będzie miał problem z głowy, będzie mógł po prostu biernie korzystać z dobrodziejstw Narzędzi Kwantowych i całej tej teorii, i zając się własnymi sprawami.
Jednak, aby się skupić na meritum tego tematu, muszę tu jednak odwołać się do teorii ezoFizyki i Interpretacji Dwóch Poziomów Mechaniki Kwantowej (Kwantowości), którą propagowałem w swoich książkach. Jednak od teraz będą ją nazywał Interpretacją Teistyczną Kwantowości. Aby ktoś jednak głębiej poznał temat zalecałbym zapoznać się z treścią moich poprzednich publikacji. Tych książek powstało kilka i są to: „ezoFizyka”, „Mag Uberyk”, „Kwantowa kondycja umysłu”, „Cztery Filary” oraz „Umysł a ezoFizyka”. Nie trzeba je od razu kupować, bo większość jest w ofercie wypożyczalni Legimi i Empik Go.
Muszę tu nawiązać do tej teorii, by uzasadnić mój pogląd dotyczący natury psychiki i świadomości ludzkiej, w kontekście ewentualnej ingerencji tej pozytywnej i „naprawy” tego. To znaczy właściwej korekcji psychiki, zachowania człowieka i wszystkiego tego, co nas, ludzi, w życiu dotyka. Normalnie przecież żyjemy tak po bożemu, to znaczy tak bez głębszej refleksji i uwagi nad tym, jak nas te koleje życia rzeźbią, a właściwie nasze mózgi. A przecież, jak to bywa w życiu, jedni mają więcej szczęścia inni mniej (tak przynajmniej wydaje się nam z perspektywy Poziomu Mierzalnego, w rzeczywistości jednak …?!). Tym samym nasze psychiki, świadomości a nawet nasze dusze można za pomocą Narzędzi Kwantowych korygować. Ktoś powie: ale przecież to jest treścią naszej Drogi Rozwoju Duchowego, wpisanej to jest w sens naszego istnienia tu na Ziemi. I tak i nie. Rzeczywiście, dotąd nie było na to skutecznych metod, aby w to ingerować, ale dzisiaj w erze Kwantowej wreszcie są odpowiednie Narzędzia Kwantowe, by zmierzyć się z tym tematem. I jest też już odpowiednia teoria, którą, pozwalam sobie tu powiedzieć, w większości sam opracowałem, ewentualnie odkopałem, a które to już teorie ludzie dawno odkryli, tylko ten zalew Ateizmu, Materializmu, który opanował Naukę i oficjalną narrację wyparł to z domeny publicznej. Teraz na wstępie określę, co wprzódy będę się starał wykazać, nim przejdę do właściwych form Protezy Kognitywnej, która pozwala ingerować w jakość naszego życia. Przede wszystkim więc wykażę, iż świat opiera się na dwóch poziomach. Na Poziomie Mierzalnym, tej Twardej Materii oraz na drugim, na Poziomie Niemierzalnym, poziomie Transcendencji, poziomie Duchowym. Potem udowodnię, że na Poziomie Niemierzalnym musi przejawiać się Przyczyna Sprawcza i Celowa, którą nazywam Bogiem, a która to jest wystarczająca już dostateczna już dla wszystkich Skutków, które powoduje, a które to Skutki manifestują się już na Poziomie Mierzalnym. Wykażę, że Bóg dał ludziom atrybut wpływania na ten Poziom Niemierzalny, który jest właściwą bazą Przyczyn Sprawczych i Celowych, których Skutki manifestują się potem na Poziomie Mierzalnym, tym który można poddać pomiarowi. Na tym poziomie (Poziomie Niemierzalnym), co też pokażę, nie ma przypadkowości. Będzie mi to potrzebne, by wykazać, iż człowiek jako byt, który funkcjonuje na Poziomie Mierzalnym, ma to materialne ciało i materialny mózg, musi jak każdy byt, być powiązany także z tym Poziomem Niemierzalnym, bo wszak wszystko musi mieć z nim powiązanie, z tym Poziomem Niemierzalnym. A czym powiązany? Duszą, która jest manifestacją Ducha człowieka z Poziomu Niemierzalnego na tym właśnie Poziomie Mierzalnym. Są wystarczające dowody empiryczne, by twierdzić, iż mózg człowieka poprzez superpozycję zawiera tę część materialną, związaną z Poziomem Mierzalnym, tę Zwierzęcość oraz posiada Duszę, wyraz jego Ducha, która jest odbierana przez mózg, prawdopodobnie, jak twierdzą Okultyści, prze szyszynkę, ale to nawet nie jest ważne przez co odbieramy swoją Duszę w mózgu, bo Dusza na pewno nie jest wytworem pracy neuronów w mózgu. Ważne jest, iż tym końcowym efektem tej superpozycji Duchowego i Zwierzęcości jest świadomość ludzka. Świadomości ludzkiej nie da się wyjaśnić poprze strukturę li tylko neuronową i budowę mózgu, i systemu nerwowego, choć próby zbadania i wyjaśnienia tego sięgają już ponad stu pięćdziesięciu lat, i jak dotąd fenomenu świadomości ludzkiej nie dało się i nadal nie udaje się wytłumaczyć kategoriami materialistycznymi i ateistycznymi. Rację więc miał Kartezjusz, iż panuje w człowieku dualizm tego Duchowego i tego Materialnego (Zwierzęcość). Potem pokażę, jak można korzystając z Narzędzi Kwantowych i zgodnie z tą całą teorią wpływać na mózg i jakość życia człowieka, przez coś co nazwałem, być może błędnie, nieprecyzyjnie Protezą Kognitywną.
1.Rys historyczny
a.Fizyka do XX wieku
Nasza nauka, naszej cywilizacji nowożytnej, jest krótka, bardzo krótka, to raptem ostatnie kilka minut w, umownie ujmując to tak, dobowej historii naszego gatunku. Dlatego, choć szczycimy się już teraz komputerami kwantowymi, nie dziwi ten fakt, że my tak mało jeszcze wiemy. Gubimy się w domysłach, a wiedza nawet ta Uniwersytetach oparta jest głównie na uzusie. To, co autorytety uznają za prawdę, nauczane jest powszechnie. I choć historia nauki, mam tu na myśli głównie jednak fizykę i metafizykę- choć ta ostatnia często uznawana jest, nie bez racji, za zbiór konfabulacji- jest tak krótka, to obfitowała ona w szereg teorii, które z czasem zostały jednak przez autorytety odrzucone. Choćby, dajmy taki przykład, Geocentryczną kosmologię Ptolemeusza czy teorię cieplika, czy koncepcję eteru jako nośnika fal elektromagnetycznych, czy nawet Kelwina wirową koncepcję budowy atomów — wszystkie one, uważa się, zostały sfalsyfikowane i odrzucone. Falsyfikacja była uznawana powszechnie za podstawowe narzędzie logiczne w ustanawianiu obowiązującego Paradygmatu Nauki, przynajmniej było tak do końca XX wieku. Dzisiaj, uważa się, iż istnieją teorie, które nie poddają się falsyfikacji, choć przez większość autorytetów są uznawane za co najmniej obiecujące. Mam tu na myśli M-Teorię, Teorię Strun, czy Supersymetrię. Jest tak dlatego, iż nauka doszła do granicy percepcji ludzkiej, to znaczy zeszła poniżej czasu Planka i długości Planka, co nie jest już możliwe, by podlegało falsyfikacji, którą głównie dokonuję się w Nauce empirycznie, czyli przez doświadczenie. Choć i tak, gorączkowo szuka się empirycznego potwierdzenia tych teorii w CERN-ie, to i tak na razie nie daje to pożądanego rezultatu. Fizyka jako Nauka bierze początek w rozważaniach wczesnych filozofów greckich, którzy namiętnie rozważali ontologiczną naturę bytów. A to obok filozofii jest też ulubionym life motywem fizyki. Uważa się, że starożytność obfitowała w mnóstwo cenionych do dziś filozofów, ale takich pierwszego rzędu naukowców było na palcach jednej ręki. Na pewno do takich można zaliczyć Pitagorasa, Archimedesa i Arystotelesa, który przecież znał się na wszystkim i, niestety, wprowadził on do powszechnej Nauki dużą ilość pomyłek i nieścisłości, które pokutowały niemal do czasów Galileusza. I choć swoje teorie opierał (Arystoteles) na werbalnych sformułowaniach, bo przecież algebraiczna forma przedstawiania praw przyrody została upowszechniona dopiero w XVII wieku i później, to jednak wiadomo, że jednym z jego postulatów i praw, które uważał za poprawne było słynne sformułowanie F= mv. Według niego siła była proporcjonalna do masy i prędkości. Stąd powszechnym wnioskiem płynącym z tego wzoru był wniosek, że gdy na ciało o masie m nie działa siła, czyli F=0, to ciało nie porusza się, bo musi być v=0. Co dzisiaj wydaje się nam totalną bzdurą, ale tak uważano jeszcze do czasów pojawienia się Galileusza. Galileusza był chyba jednym z pierwszych pełną gębą fizyków, który operował głownie wiedzą wywodzącą się z doświadczenia. To on pierwszy poprawił Arystotelesa, serią doświadczeń udowodnił, że jeśli na ciało nie działa siła, F=0, to takie ciało porusza się jednostajnie po torze prostoliniowym lub pozostaje w spoczynku. Z tego jego postulatu wynikało, że F≠mv, spekulacją na razie było, to czemu się zatem równa F? Na to pytanie częściowo Galileusz odnalazł odpowiedź, lecz nie sformułował jej i nie upowszechnił. I to dopiero Newton podał pełną odpowiedź na tę kwestię, Newton, który stworzył rachunek całkowy i różniczkowy. To prawda, że Galileusz stwierdził, iż dla F=0 to v= constans, ale to Newton wiedział, że a=dv/dt, stąd d(constant)/dt=0, bo pochodna stałej to jest zero (0), czyli jego poprawnym wnioskiem było, że dla F=0 to a=0, czyli że “F” musi być wprost proporcjonalne do “a”, stąd już mały krok do sformułowania powszechnego prawa Dynamiki Newtona, iż F=ma. W tym sformułowaniu Newtona “m” (masa) pełni rolę stałego współczynnika proporcjonalności. To więc było skuteczne obalenie ustaleń Arystotelesa. Lecz nim to nastąpiło, w historii fizyki pojawiły się jeszcze takie nazwiska jak Tycho de Brache i jego spadkobierca Kepler. Pierwszy z nich opracował, gołym okiem, bardzo dokładne tablice astronomiczne, z których po głębokiej analizie Kepler wyprowadził swoje prawa, w których między innymi ustalił, że Planety poruszają się nie po orbitach kołowych, jak dotąd zakładano, lecz po elipsach, przy czym Słońce znajdowało się zawsze w jednym z biegunów elipsy. Kosmologię Keplera spuentował Newton, który ostatecznie wyjaśnił prawa Kosmologiczne swym wzorem na siłę grawitacyjną, która jest wprost proporcjonalna do iloczynu Masy Słońca i Planety, a odwrotnie proporcjonalna do kwadratu odległości między nimi. Okazuje się, że z tej prostej zależności wynikają wprost wszystkie Prawa Keplera. Newton był też pierwszym naukowcem, który sformułował tak zwaną Metodę Naukową, czyli sposób pracy fizyka, naukowca, który obiektywnie bada i analizuje warunki problemu fizycznego, bez odwoływania się do jakichś nadzwyczajnych i mistycznych okoliczności. Można taki schemat znaleźć w jego wszystkich dostępnych pracach, szczególnie zaś w Principiach…, gdzie Newton wyraźnie wystrzega się sformułowań, które nie daje się udowodnić naukowo. Widać to w odniesieniu do problemu działania Siły Grawitacji przez “pustą” przestrzeń, co było dla niego trudne do przyjęcia (siła działająca bez bezpośredniego przyłożenia). Wolał na ten temat nie snuć żadnych metafizycznych konkluzji. Ten problem rozwiązał dopiero Einstein w Ogólnej Teorii Względności, który określił, że żadnej Siły Grawitacji nie ma, jest tylko zaburzenie czasoprzestrzeni i ciała kosmiczne poruszają się po liniach geodezyjnych, wyznaczanych przez zaburzające tę przestrzeń masy (tych ciał). Dla Newtona trudne było przyjęcie, że Siły Grawitacyjne działają bez pośredników przez pustą przestrzeń Kosmosu, a do tego sprowadzała się jego Kosmologia. Dzisiaj w fizyce współczesnej również przyjmuje się, iż Siły działają poprzez cząstki wymiany sił, i że nie mogą one działać bez pośredników, chyba że działają w Polu Sił, tak jak przyjęte jest to w Klasycznej Teorii Maxwella, ale koncepcja Pola to jest osobne głębokie pojęcie fizyczne. Dzisiaj wiemy, że i tak muszą istnieć cząstki wymiany Sił. I choć Newton uważany jest za twórcę współczesnej Nauki, bez odwoływania się do nadzwyczajnych zjawisk, to jednak warto wiedzieć, że prywatnie był zapalonym Alchemikiem i Magiem, który późniejsze niemal całe życie poświęcił badaniom nad Kodem Biblii, skąd, miał nadzieję, uzyska głęboką wiedzę na temat świata i rzeczywistości, i Duchowości. Jest to pewien paradoks, iż Ojciec Założyciel racjonalnej Nauki był de facto Magiem, czyli kimś parającym się ponadzmysłowym światem. Jednak i tak jego dokonania na polu Nauki są niezaprzeczalne i niepodważalne.
Okres Oświecenia i późniejszy czas, to był okres powstawania klasycznych formalizmów, w tym głównie formalizmów opartych na przyczynowości celowej. Więc były to (te formalizmy celowe) i zasada najmniejszego działania, formalizm Lagrange’a, później formalizm Hamiltona, nieco odmienne formalizmy niż formalizm Newtonowski, który był oparty na przyczynowości sprawczej, gdzie główną rolę stanowiły Siły, które sprawiały działanie. W formalizmie opartym na przyczynowości celowej to nie siły stanowiły sedno, tylko warunki celowe (Hamiltonian), które ciała podległe takiemu formalizmowi musiały spełniać. Ale i dla Przyczyn Sprawczych i dla Przyczyn Celowych w Determinizmie, który wtenczas obowiązywał, Przyczyny (i te Celowe i te Sprawcze) były już wystarczające i dostateczne, aby skutki się dokonywały w sposób pewny. To odróżnia formalizm fizyki (mechaniki) klasycznej od fizyki (mechaniki) kwantowej, o czym napiszę później. Okaże się, że dla Kwantowości na naszym poziomie Mierzalnym obowiązuje już Indeterminizm, czyli że Przyczyny (Sprawcze lub Celowe) są jedynie konieczne, lecz niewystarczające, dla dokonywujących się Skutków. To wyszczególnienie na dwa rodzaje przyczyn, na Przyczyny sprawcze i Przyczyny celowe, sięga starożytności, a właściwie jego źródłem jest sam wspominany już Arystoteles. W ogólności on przedstawił koncepcję czterech typów Przyczyn. Przyczyny: formalną, materialna, sprawczą i celową (lub ostateczna), ale do naszych czasów ostały się tylko Przyczyny sprawcze i celowe. Te dwie pierwsze dotyczyły metafizycznej koncepcji jego ontologii bytu (budowy materii), ale że ta idea okazała się co najmniej nieścisła a wręcz błędna, dzisiaj już ich się nie uwzględnia (tych Przyczyn: materialnej i formalnej) w opisie fizyki. I rzeczywiście formalizm Newtonowski oparty na koncepcji Siły jest zgodny z Przyczynami Sprawczymi, formalizm Lagrange’a i Hamiltona jest oparty i związany ściśle z Przyczynami Celowymi, w formalizmie Hamiltona elementy układu (ciała) muszą spełniać warunek celowy jaki określa Hamiltonian układu. Ale Przyczynowość, czyli Prawo Przyczynowo Skutkowe musi uwzględniać oba typy Przyczyn i stosuje się do obu typów. Ja w swoich wcześniejszych książkach jako bardziej przywiązanego do formalizmu Newtonowskiego, który był przecież pierwszy, określałem Prawo Przyczynowości w kontekście Przyczyn Sprawczych, ale wszystkie wnioski oparte na Przyczynowości, czyli na Determinizmie lub Indeterminizmie, równie dobrze można w taki sam sposób powiązać z Przyczynami Celowymi, dlatego teraz będę używał uogólnienia: Przyczyny, w obu kontekstach: Sprawczym i Celowym, bez wyszczególnienia. Można tu od razu zauważyć, iż formalizm Hamiltona i Lagrange’a są chętniej wykorzystywane w fizyce współczesnej ze względu na szereg zalet, w tym obliczeniowych, w stosunku do formalizmu Newtonowskiego. Chodzi tu o łatwość w transformacji z układu do innego układu (układu odniesienia) (współrzędne i pędy uogólnione) i wynikającą stąd prostotę opisu fizyki takich układów w tych formalizmach opartych na Przyczynach Celowych. Koncepcja Siły jest jednak bardzo trwała, ponieważ większość opisów i praw fizyki posługuje się tym pojęciem. Wyszczególnia się cztery rodzaje Sił Elementarnych. Są to Siły: Grawitacyjna, Elektromagnetyczna oraz Jądrowa Silna i Jądrowa Słaba. Jak się później okaże w Kwantowości, moja Interpretacja Dwóch Poziomów Kwantowości uwzględnia jeszcze dwa typy Sił, ale o tym w swoim czasie. Można zauważyć, iż te Siły Elementarne (te cztery głowne) są równoznaczne z Przyczynami Sprawczymi, bo one powodują źródłowo działanie, czyli sprawczość.
Warto więc tu odnieść się jeszcze do pojęcia Przyczynowości (Prawa Przyczynowo Skutkowego). Jest to, a właściwie było dotąd pojęcie dość nonszalancko traktowane w Nauce, w fizyce. Wszyscy, owszem, zgadzają się, że jest to bardzo ważkie pojęcie, ale właściwie mało ono było dotąd rozpatrywane w Nauce. Powszechnie każdy wie, iż w procesie fizycznym Przyczyna (Sprawcza?) musi poprzedzać w czasie Skutek, który powoduje. Przyczyny Celowe warunkują procesy fizyczne, które jednak zawsze kończą się jakimś Skutkiem. W tym kontekście też są one wystarczające (Determinizm) lub tylko konieczne (Indeterminizm) dla tych Skutków.
Dotąd także zawsze przyjmowano, że Przyczyny są wystarczające (opinia Arystotelesa, który pierwszy na to wpadł) i dostateczne dla Skutków, tak uważano aż do początków XX wieku. Ale tak naprawdę ten przypadek odnosi się do Determinizmu. Warto sobie uświadomić, iż w ogólności Przyczynowość dzieli się na dwie gałęzie. Na Determinizm oraz Indeterminizm. Więc ten przypadek wystarczalności Przyczyny dla Skutku, który powoduje, dotyczy tylko Determinizmu. A co z Indeterminizmem? Jak go należy rozumieć? I kiedy mamy z nim do czynienia? Jest to moja koncepcja, którą promuję w swoich publikacjach. A należy to rozumieć w ten sposób, iż Indeterminizm występuje wtedy, gdy Przyczyny są jedynie (?) konieczne, lecz niewystarczające dla powodowanych przez nie Skutków. Innymi słowy, gdy mogą one, a nie muszą zaskutkować (te Przyczyny). Wyjaśnia się, że taki przypadek ma miejsce w Kwantowości. Kiedy (na Poziomie Mierzalnym(?)) Skutki dokonują się w procesach fizycznych, lecz z pewnym prawdopodobieństwem tego faktu, albo ujmując to nieco inaczej, z pewną niepewnością. O tym będę pisał jeszcze w ramach opisu Mechaniki Kwantowej. W tym miejscu jednak muszę o tym wspomnieć. Dlaczego? Bowiem cała fizyka Klasyczna (prawie cała) z Poziomu Mierzalnego podlega de facto Determinizmowi. Wszystkie wzory są jasne, klarowne, jednoznaczne i Deterministyczne. A cała Kwantowość z Poziomu Mierzalnego podlega Indeterminizmowi, niepewności. I na tym, na razie, w tym miejscu muszę poprzestać, a wrócę do tego w dalszej części książki.
Od XVIII wieku rozpoczyna się w Nauce epoka Elektromagnetyzmu. To właśnie z tym fenomenem związana jest koncepcja Pola Sił, którą wprowadził Faraday. Wydawałoby się, od samego początku, że jest to podobna koncepcja sił, jak siły grawitacyjne, czyli siły, które działają na odległość, czyli czegoś, co nie da się wytłumaczyć Naukowo i właśnie, by to jakoś rozwiązać, wprowadzono pojęcie Pola Sił. Klasyczna Teoria Maxwella opiera się na pojęciu Pola Sił Elektromagnetycznych i fal EM (elektromagnetycznych). Maxwell, który podał wzory opisujące cały Klasyczny Elektromagnetyzm, udowodnił także, że światło to swoisty rodzaj fali elektromagnetycznej. Opinia i tezy Maxwella zaważyły na tym, że odtąd aż do pojawienia się Kwantowości w XX wieku światło uważano za fale. Szkopuł w tym, że fale potrzebują nośnika. Tak jak nośnikiem fal morskich jest woda, a fal akustycznych powietrze. Ale, choć przez te z góry trzysta lat szukano nośnika fal EM (Elektromagnetycznych) — czyli tak zwanego Eteru i właściwie są jeszcze tacy, którzy i dzisiaj go szukają- to nie udała się ta sztuka nikomu. Tę kwestię opiszę szczegółowo, gdy będę pisał o Kwantowości. Spróbuję też wtedy udowodnić, że żadnego Eteru nie ma, bo światło i fale EM to cząstki, zresztą tak jak to określił sam Newton. Kwanty Pola (cząstki), które rozchodzą się w przestrzeni z prędkością absolutną “c”. Faktem jest, że te cząstki zachowują się tak, jakby były falami, bo przejawiają, ich fizyka, znamiona falowości, na przykład uginają się i interferują, dlatego dla ludzi tamtych lat naturalnym wnioskiem było, że światło to fala. Nawet i dzisiaj w Interpretacji Kopenhaskiej Mechaniki Kwantowej obowiązuje dualizm korpuskularno-falowy, który zakłada, że materie, w tym światło i cząstki elementarne, raz można uznawać za fale, a innym razem za cząstki. O tym będę starał pisać, gdy przedstawię część książki dotyczącą Kwantowości. Teraz tylko nadmienię, iż takie poglądy (dualizm) związane są z pewnym nieporozumieniem, które łatwo da się wyjaśnić. Wyjaśnienie tkwi niemal jak na tacy w formalizmie matematycznym Kwantowości.
Odkrycia w ramach teorii elektromagnetyzmu przyniosły ludziom znaczny i trwały postęp technologiczny, i poprawiły powszechne warunki życia. Wraz z pojawieniem się inżynierii elektrycznej, licznych urządzeń i silników elektromagnetycznych w domach pojawiło się powszechne oświetlanie, sieci energetyczne i urządzenia elektryczne poprawiające komfort życia. Właściwie postęp na tym polu trwa do dnia dzisiejszego. To prawda, że dzisiaj do tego dołączyła inżynieria elektroniczna i kwantowa oraz informatyka, ale to tylko wzbogaciło ten postęp, który źródłowo zaczął się już od XVIII wieku.
Rozwój fizyki, matematyki teoretycznej i matematyki fizycznej od czasów Newtona, od jego słynnego dzieła Principia jest i był tak wielki, iż powstały wtedy praktycznie wszystkie główne formalizmy matematyczne, które do dziś znajdują powszechne zastosowanie nawet w nowych teoriach fizycznych i naukowych. Wiedza, jaką od tamtych czasów udało się ustalić człowiekowi, jest dziś praktycznie nie do ogarnięcia nawet dla genialnych ludzi. Zmusiło to naukowców do rozwinięcia bardzo selektywnych działów Nauki, w tym fizyki i matematyki. W Uczelniach fizyka, matematyka, chemia, biologia i praktycznie wszystkie inne gałęzie wiedzy trzeba było rozbić na szczegółowe fakultety. Uniwersytetów na całym świecie niepomiernie przybyło, przybyło też niewspółmiernie dużo naukowców, ludzi, którzy zawodowo parają się Nauką i nauczaniem.
Warto zauważyć, że praktycznie do powstania Mechaniki Kwantowej wzory i teorie fizyczne były Deterministyczne. Nawet Termodynamika, która powstała w tym pierwszym okresie bazowała na deterministycznych założeniach i tylko uogólnienie na ogrom cząsteczek, jakie znajdują się w jednym molu gazu czy materii, prowadziło do probabilistycznych reguł i praw termodynamiki. Rządziły się one Determinizmem jako jedną z form Przyczynowości: def. Determinizmu:
∀Przyczyny (Przyczyna →Skutek)
Przy czym chodziło o Przyczyny sprawcze lub celowe. Czyli we wzorach tych Przyczyny były już wystarczające i dostateczne dla dokonywanych w procesach fizycznych Skutków.
Głównym powodem tego faktu było to, iż we wzorach tych były uwzględnione tylko liczby Rzeczywiste. Ale jak już to się miało wkrótce zdarzyć, liczby Rzeczywiste i Ciało Liczb Rzeczywistych nie było już wystarczającym zbiorem liczb do opisu wszystkich zjawisk fizycznych. I wraz z przyjściem XX wieku do gry w opisie fizyki zjawisk dołącza Ciało Liczb Zespolonych. I to była znacząca i jakościowa zmiana. Zmieniająca całe pojmowanie fizyki i struktury Świata.
b. Fizyka XX wieku
Jeszcze Lord Kelvin w końcówce XIX wieku był święcie przekonany, że teoria fizyki jest już praktycznie na ukończeniu, a resztą zajmą się Akademie, gdzie kształceni będą inżynierowie, którzy w sposób praktyczny będą korzystać z ustaleń wielkich teoretyków już skończonej fizyki. Czyli, jego zdaniem, już nic ciekawego w teorii fizyki miało się nie zdarzyć. To był bez wątpienia wielki fizyk, który pozostawił po sobie niemały dorobek, w tym względzie mylił on się jednak kardynalnie. Bo przecież z perspektywy czasu my wiemy, że tak naprawdę zabawa w fizykę miała się dopiero zacząć. W XX wieku, i to już na samym jego początku, powstały dwie gigantyczne gałęzie Nauki. Teorie Względności oraz Mechanika Kwantowa. Właściwie, Teoria Względności to dwie teorie, Szczególna i Ogólna Teoria Względności. Pierwsza jest właściwie uogólnieniem Newtonowskiej Kinematyki i Dynamiki na przypadki ciał poruszających się ze znaczną prędkością, to znaczy z prędkością v≥c/3, czyli prędkością powyżej trzeciej części prędkości światła. W tej teorii Einstein, twórca tej teorii, założył, iż wszystkie układy inercjalne są równoważne dla procesów fizycznych. Stąd wynika, iż istnieje prędkość maksymalna ciał (skończona, ale ogromna), tak zwana prędkość absolutna “c” w tych równoważnych układach, która jest taka sama dla wszystkich układów inercjalnych (ogólnie dla wszystkich). W swych eksperymentach myślowych w jeszcze bardzo młodym wieku, z których Einstein był potem szeroko znany, twórca teorii doszedł do konkluzji, że z taką prędkością porusza się światło. I rzeczywiście empiria potwierdzała ten wniosek. Dziś wiemy, że wszystkie cząstki bezmasowe (byty bezmasowe) poruszają się z prędkością “c”. Co ważne światło, w myśl tego, ma taką samą absolutną prędkość “c” względem każdego układu, nieważne jak by się ono poruszało. Ze Szczególnej Teorii Względności wynika bardzo wiele wydawałoby się na pozór paradoksalnych wniosków. Po pierwsze, czas traci swoją rangę parametru absolutnego, czyli takiego, który nie zmienia się przy przejściu z układu do układu. Po drugie, przestrzeń i czas są ze sobą nierozerwalnie powiązane, tworząc czasoprzestrzeń. Po przejściu z układu do układu transformacji ulega cała czasoprzestrzeń, a wyrazem tego są wzory na Transformację Lorenza. W szczegółach okazuje się, w myśl tych wzorów, że czas podlega dylatacji a odległość skróceniu Lorenzowskiemu, to znaczy w poruszającym się układzie, względem tego w spoczynku, czas zwalnia, a długość w poruszającym się układzie (względem układu w spoczynku, czyli laboratoryjnego) w kierunku zgodnym z ruchem tego układu ulega skróceniu. I tu już na starcie Einstein musiał się zmierzyć z pierwszym paradoksem (okazuje się pseudo paradoksem). Chodzi o to, że przecież ruch jest względny. Jeśli bowiem układ A porusza się ze względną prędkością “v” względem układu B, to można w myśl tej zasady równoważnie stwierdzić, że to układ B porusza się z prędkością “-v” względem A. Znak “-” nie zmienia tu nic, chodzi tylko o zmianę zwrotu ruchu. Czyli, jak to? To w którym układzie czas zwalnia? To był główny oręż wszystkich przeciwników STW (Szczególnej Teorii Względności). Bo to był wniosek, który jakoby prowadził do jawnego absurdu, czyli dowód Nie Wprost, że STW jest z gruntu fałszywa. I gdybyśmy teraz spowodowali, że jeden z tych poruszający się układów (A lub B) by zawrócił, i te układy znów zetknęłyby się, tak jak to było na początku ruchu, to w którym upływ czasu byłby mniejszy? Jest to treść tak zwanego Paradoksu Bliźniąt (Bo w tych układach, założyć można, każdy w innym, znajdują się bliźniaki). Rozwiązanie zaś jest banalnie proste. Należy się odwołać do dynamiki. Zauważmy, że jeden z układów musi w pewnym momencie zmienić kierunek ruchu, i wtedy nie mamy już do czynienia z układem inercjalnym, tylko podlegającym przeciążeniu, czyli nie stosują się do niego ustalenia dotyczące względności inercjalnego ruchu. To w tym układzie, w którym wystąpią te siły (aby układ mógł zawrócić) dochodzi do dylatacji czasu. To wynika wprost z przeprowadzanych w żmudny sposób operacji matematycznych wynikających ze wzorów Transformacji Lorenza, które tu, dla wygody, pominąłem, ale każdy to może, te operacje matematyczne, sam przeprowadzić, niejako na kartce papieru.
Ważne jest jeszcze coś przy rozpatrywaniu transformacji przejścia z układu do układu. Coś, co fizycy dotąd pomijali lub robili to mimowolnie, bez specjalnej uwagi. Otóż, na wszystkie transformacje z układu do układu musi być jeszcze naniesiony warunek, że w przypadku zdarzeń przestrzenno-podobnych (i czasowo różnych) musi być zachowana Przyczynowość pomiędzy tymi zdarzeniami, czyli musi być zachowane Prawo Przyczynowo Skutkowe. Innymi słowy, jeśli w jakimś układzie odniesienia dla zdarzeń przestrzenno-podobnych kolejność czasowa jest następująca Przyczyna (A) poprzedza Skutek (B), to przy każdej transformacji układów ta kolejność musi być zachowana lub oba te zdarzenia (A i B) zachodzą równocześnie. Przyczynowość nie musi być zachowana jedynie dla zdarzeń czasowo-podobnych. Warto tu zauważyć, że trudno jest uzyskać równoczesność czasową dla dwóch różnych punktów w przestrzeni. Stąd rodzą się różne dziwne wnioski wynikające ze zdarzeń w STW. I jest ona tak nieintuicyjna, ale paradoksów w niej nie ma i jak dotąd nie została ona (STW) sfalsyfikowana, a empiria potwierdza wszystkie jej nieoczekiwanie wnioski.
Pierwsza połowa XX wieku bez wątpienia należała do Alberta Einsteina, który najpierw sformułował (1905) STW, a następnie OTW (Ogólną Teorię Względności) (1915). Jego wkład w teorię fizyki nie ograniczał się tylko do tych dwóch potężnych idei, bowiem był on także współtwórcą rodzącej się także wówczas Mechaniki Kwantowej (1900 -1925). I choć wprawdzie w pewnym momencie, gdy już teoria MK (Mechanika Kwantowa) nieco okrzepła, nie umiał przyjąć i pogodzić się z jawnym Indeterminizmem (czyli w skrócie z przypadkowością), jaki płynął z MK, słynne jest jego zdanie …Bóg nie gra ze światem w kości…, to jednak mimo wszystko do końca życia śledził z uwagą wszystkie ustalenia MK, która z czasem zaczęła dominować w Nauce, jako najważniejsza teoria fizyczna XX wieku. Nim omówię w skrócie OTW oraz przejdę do MK, to jednak w tym momencie pragnę zauważyć, że Einstein i nie miał racji, i miał bardzo dużo racji, co nieco później szczegółowo uzasadnię. Teraz zauważę enigmatycznie, iż, faktycznie, Mechanika Kwantowa (MK) z Poziomu Mierzalnego jest Indeterministyczna, czyli w dużej mierze probabilistyczna (przypadkowa), ale z drugiego poziomu, do którego jeszcze później nawiążę, z Poziomu Niemierzalnego nie jest Indeterministyczna. W istocie więc jest tak, że nam, na Poziomie Mierzalnym, wydaje się, że MK jest Indeterministyczna, w rzeczywistości na głębszym, tym drugim poziomie, na Poziomie Niemierzalnym nie ma przypadkowości i Bóg, faktycznie, nie gra ze światem w kości. Kłania się więc tu i potwierdza ogromna intuicja Einsteina. To, o czym teraz piszę, może w istocie wydawać się zagadkowe i enigmatyczne, ale ja w dalszej części książki odniosę się do tego szczegółowiej i postaram się to wytłumaczyć. Mogę tylko stwierdzić, iż prawie wszystkie teorie, pisane z Poziomu Mierzalnego, czyli napisane do XX w., są Deterministyczne, są napisane właśnie w tym duchu. Dotyczy to także jeszcze STW i OTW. One też są jak najbardziej Deterministyczne. Dopiero MK i teorie podchodzące pod wspólny mianownik Kwantowości są pisane z Poziomu Niemierzalnego, i tam z tego poziomu (Niemierzalnego) nie są Indeterministyczne, a są takie z punktu widzenia Poziomu Mierzalnego rzeczywiście Indeterministyczne, a to już jest jakościowo zupełnie inna forma opisu fizyki zjawisk. Ciekawe jest to, że dopiero po zgoła stu latach od powstania MK, ktoś (czyli ja) formułuje takie oczywiste stwierdzenia. Nim zacznę opisywać ten podział struktury świata na dwa poziomy (Mierzalny i Niemierzalny) i opiszę Mechanikę Kwantową, i w ogólności Kwantowość, wróćmy do Ogólnej Teorii Względności (OTW). Do drugiej Einsteinowskiej teorii.
Ogólna Teoria Względności zakłada równoważność wszystkich rodzajów układów odniesienia i tych inercjalnych, i tych w których działają siły, za równoważne w opisie fizyki. Dotyczy ona głównie Kosmologii, bo zastępuje niejako w ten sposób sfalsyfikowaną Kosmologię Newtona. Zakłada ona równoważność masy ciężkiej z masą bezwładności, postulując tym samym, by przyśpieszenie wynikające z działania “siły” grawitacyjnej traktować za równoważne z przyśpieszeniem wynikającym z działania siły bezwładności. Stanowi ona, ta cała teoria (OTW), rodzaj geometrii nieliniowej z określoną metryką, którą tworzą masy ciał (Planet, gwiazd, obiektów kosmicznych), które zakrzywiają niejako czasoprzestrzeń lokalnie, powodując, że te masy (te ciała kosmiczne) poruszają się po liniach geodezyjnych wyznaczonych przez te masy. Najważniejsze równanie w Ogólnej Teorii Względności to równanie pola Einsteina. Równanie to opisuje związek między krzywizną czasoprzestrzeni a rozkładem masy i energii w niej zawartych. Ważnym elementami OTW są: tensor Energii-pędu, tensor krzywizny Riemanna, tensor metryczny oraz stałe przyrody, jak stała Grawitacyjne. Te elementy to główne elementy tego równania. Właściwie OTW to geometria krzywoliniowa, z ograniczeniem jaki nakłada na nią równanie Pola Einsteina. Ciała, obiekty kosmiczne, muszą spełniać te warunki. Czyli istnieją Przyczyny Celowe (równanie Pola Einsteina), sił nie ma, nie ma więc Przyczyn Sprawczych (jeśli chodzi o siłę Grawitacji). Przyczyny Celowe są więc wystarczające i dostateczne, słowem czysty Determinizm. Choć ten opis jest pozornie prosty, to jednak istnieje nieskończenie wiele rozwiązań tego równania. O tym, czy świat dany takim równaniem będzie się kurczył lub rozszerzał, lub będzie statyczny, decyduje średnia gęstość materii tego świata. Według ustaleń empirycznych nasz Świat się rozszerza i będzie się rozszerzał aż momentu “śmierci cieplnej”, kiedy to po burzliwej historii, po fazie powstawania gwiazd, planet, a potem czarnych dziur, masy wyparują (czarne dziury) do postaci promieniowania fotonów. I zakończy się pełny Eon istnienia świata, który będzie zarzewiem powstania nowego świata (nowego Eonu), czyli według tej teorii świat jest wieczny i przechodzi kolejne Eony. Jeden taki pełny Eon szacunkowo trwa około 10^13 lat. Taka jest wersja Kosmologii za teorią sir Rogera Penrose’a, z którą nie, to prawda, nie wszyscy się zgadzają, ale na dzień dzisiejszy wydaje się, że to jest prawidłowa teoria. W takim jednak razie muszą istnieć jakieś pozostałości w Kosmosie po przeszłych Eonach, a to już poddaje się falsyfikacji. Na razie trwają usilne poszukiwania tych pozostałości, które to potwierdzą lub zanegują teorię Rogera Penrose’a. Nieco dla otrzeźwienia warto zauważyć, że obecny Wszechświat (obecny Eon) liczy sobie około 13,8 miliarda lat, czyli rzędu 10^10 lat (oficjalnie), choć najnowsze ustalenia sugerują, że ten wiek może być nawet dwa razy dłuższy. Jednak do końca Eonu jest jeszcze radykalnie dużo czasu. Więcej nawet, Układ Słoneczny, w którym się znajdujemy oraz wiek Ziemi, nie osiągnął jeszcze nawet szacunkowo połowy swego potencjalnego istnienia.
Albert Einstein jest uważany za jeśli nie najwybitniejszego, to na pewno jednego z najwybitniejszych fizyków nie tylko współczesnych, ale w ogólności. Na pewno nikt inny- może tylko Izaak Newton mu może w tym dorównać- nie stworzył tak spójnych i wielkich systemów w fizyce. Jego wielkość byłaby idealna i niepodważalna, gdyby nie mały drobiazg. Choć był przecież jednym z pionierów Mechaniki Kwantowej, to jednak nie odcisnął się w niej swymi dokonaniami i nie pozostawił takiego śladu geniuszu, jak mógł przecież, tak jak w swych sztandarowych Teoriach Względności. To zresztą budziło w nim frustrację i rozżalenie niemal do końca życia, czego wyrazem było to, że z tym systemem (MK) nie umiał się pogodzić. Tak naprawdę nie umiał się pogodzić z popularnymi w tym czasie i obowiązującymi interpretacjami Mechaniki Kwantowej, głównie z Kopenhaską Interpretacją Mechaniki Kwantowej. A jeszcze ściślej z Indeterminizmem, który jawnie wynikał z MK. Pod koniec życia (do końca życia) pracował nad unifikacją swych Teorii Względności i Mechaniki Kwantowej w jeden Deterministyczny system. Niestety starania te okazały się płonne. Nie jestem jakimś wybitnym teoretykiem, fizykiem, ale moim zdaniem wynikało to stąd, iż wówczas a i we współczesnej Nauce Mechanika Kwantowa (MK) i jej wszystkie obowiązujące interpretacje są jednopoziomowe. I to jest między innymi przyczyną tego, że wprawdzie Klasyczna Fizyka, czyli ta do początków XX wieku, była pisana głównie w manierze Determinizmu, bo była pisana z Poziomu Mierzalnego, ale już Mechanika Kwantowa jest napisana głównie z Poziomu Niemierzalnego. O tym, jak ja to rozumiem za chwilę. Teraz wróćmy do historii fizyki.
Mechanika Kwantowa, a właściwie jej zręby, powstała wraz z początkiem stulecia, około 1900 roku. Pierwszym był Planck. Aby wyjaśnić widmo promieniowania ciała doskonale czarnego, zaproponował on nowatorskie rozwiązanie, by energia wydzielania przez Ciało Doskonale Czarne w formie promieniowania była skwantowana w porcje, dzisiaj powiedzielibyśmy w kwanty energii. Była to, jego zdaniem wówczas, operacja tylko i wyłącznie matematyczna, a nie formalna zmiana czy podważenie obowiązującego Paradygmatu Nauki. Miała ona uratować ówczesne wzory na widmo promieniowania Ciała Doskonale Czarnego, bo zmagały się one z tak zwaną katastrofą w nadfiolecie, rozbiegały się one do nieskończoności (emitowane energie) wraz ze wzrostem częstotliwości promieniowania. Empiria jednak nie potwierdzała tego i tylko taki właśnie manewr (skwantowanie energii, czyli podzielenie na oddzielne porcje) ratował całą sprawę. Co ciekawe, jak głosi anegdota, wcześniej, w czasach, gdy miał zamiar zająć się na poważnie Nauką, odradzano mu studiowanie fizyki twierdząc, że w fizyce już nie można niczego nowego, ciekawego odkryć i niech raczej weźmie się za jakąś inną, bardziej obiecującą gałąź Nauki. W rzeczywistości jednak, jak wiemy, stał on się absolutnym pionierem nowej gałęzi Nauki, fizyki, chyba najważniejszego systemu fizycznego (Mechaniki Kwantowej i ogólnie Kwantowości), który zmienił nie tylko Paradygmaty Nauki, ale w ogólności cały współczesny świat. To, że dzisiaj korzystamy z komputerów, elektroniki oraz że narodziła się AI i jest coraz powszechniejsza, ma korzenie w tym “matematycznym” triku Planka, w skwantowaniu promieniowanej w formie światła energii. Bardzo szybko po tym, w 1905 roku, Einstein uzasadnił, że światło, a ogólnie promieniowanie EM, należy traktować jako korpuskuły, cząsteczki, które poruszają się z prędkością absolutną “c” (bardzo dużą, lecz jednak ograniczoną). Czyli de facto Einstein wyjaśnił, iż ten trick “matematyczny” Plancka ma jak najbardziej podstawy fizyczne, bowiem energia emitowana w postaci światła (promieniowanie(fale) EM) ma zawsze postać cząstek, kwantów Pola (Energii), które odtąd zwykło się nazywać fotonami. Światło: dylemat, czy to fale czy cząsteczki?, jest znany jako dualizm korpuskularno-falowy w obowiązujących współcześnie interpretacjach Kwantowości. Odniosę się do niego w dalszej części książki.
Okazuje się, iż kwant promieniowania lub kwant energii promieniowania jest równy: Ek=hf, gdzie “h” to stała Plancka, a “f” to częstotliwość fali EM. Skwantowanie energii to nie znaczy, że energia (E) jest nieciągła lub ma jakieś dziury. To tylko mówi, że dla określonej częstotliwości fali EM ta energia jest emitowania lub pochłaniana w porcja, czyli kwantach, i dla danej częstotliwości taki kwant energii jest równy: Ek=hf, przy czym jednak częstotliwość “f” fali EM ma charakter jak najbardziej ciągły. Przy czym należy jeszcze uwzględnić, iż taki kwant energii, to jest najmniejsza porcja energii dla danej częstotliwości “f”, czyli że jest to energia jednego fotonu o danej “f”. Częstotliwość fotonów nie jest jednak dowolna i jest określona przez procesy fizyczne, jakie są rozpatrywane. W tym sensie jest więc dyskretna i energia, kwant energii, dla takiego procesu jest określona i są one także dyskretne. Energia wszak w tym wypadku jest wielokrotnością określonego kwantu energii. Ale formalnie dla różnych procesów fizycznych, dla różnych pierwiastków częstotliwość fotonu nie ma żadnych matematycznych ograniczeń, a więc i kwant energii, dla jednego procesu może wynosić fa= 2,42 10^ 15Hz, a dla innego fb= 6,4 10^16Hz.
Bardzo też szybko udało się fizykom wytłumaczyć na tej podstawie budowę atomową wodoru H oraz warunki jakie musi spełnić elektron w atomie wodoru, jakie są wartości energii pochłanianej lub emitowanej przy przeskoku elektronu z jednej orbity na drugą, ponieważ Kwantowość okazało się znakomicie opisuje świat na poziomie atomowym. Pierwszymi współtwórcami i odkrywcami Kwantowości byli: Planck, Einstein, Bohr i inni. To był ten pierwszy okres, można rzec: bardzo naiwny, Mechaniki Kwantowej. Później nastąpił okres formowania i rozwijania teorii formalizmów matematycznych Mechaniki Kwantowej, który trwał niemal dwie dekady. Każdy rok, każdy przynosił zdumiewające odkrycia dotyczące Kwantowości. Końcowy etap to rozkwitnięcie Mechaniki Kwantowej w postaci określonego i skończonego formalizmu matematycznego, który używamy praktycznie do dziś.
Ostatecznie więc formalizm Mechaniki Kwantowej został określony między 1925 a 1926 rokiem. Pierwszy był przedstawiony w 1925 r. przez Heisenberga formalizm macierzowy, teraz nazywany obrazem Heisenberga, następnym w kolejności był w 1926 r. formalizm Schrödingera, zwany obrazem Schrödingera, który jest popularniejszy. Są jeszcze inne obrazy, między innymi obraz Diraca. Są to wszystko równorzędne formalizmy. Dzięki odpowiedniej transformacji Unitarnej łatwo jest przejść z jednego formalizmu w drugi. Formalizm Heisenberga różni się tym od tych pozostałych, że w nim w czasie zmieniają się postacie macierzy Obserwabli (operatorów) i odpowiada temu nieco inne równanie, zwane równaniem Heisenberga, a w formalizmie Schrödingera zmianie w czasie ulega Funkcja Stanu układu i dopowiada temu znane większości fizykom równanie falowe Schrödingera. To na pewno ma jakiś wydźwięk metafizyczny, o którym teraz nie będę pisał, ale pamiętajmy, że i w fizyce Klasycznej, w Mechanice Klasycznej też można korzystać z równorzędnych formalizmów, jak choćby formalizm Hamiltona czy Newtona.
W następnych latach XX w. powstało gro innych teorii, ale wszystkie były oparte na idei Kwantowości. Powstały bezpośrednio na Gruncie Mechaniki Kwantowej, np. Kwantowa Teoria Pola (Quantum Field Theory QFT), a z niej Elektrodynamika Kwantowa (QED), Chromodynamika Kwantowa (QCD) i inne. Do wybitnych współtwórców tych teorii można zaliczyć Feynmana, Diraca, Pauliego, Wignera, i innych. Ta książka nie rości sobie prawa, by być uznawaną za podręcznik do fizyki, dlatego tak skrótowo opisuję tę historię XX wiecznej fizyki. Warto jednak przypomnieć, że jeszcze w pierwszych latach XX w. niemieckiej naukowiec Noether udało się stworzyć i opracować podwaliny ważnego działu fizyki matematycznej, bez którego trudno dzisiaj rozpatrywać fizykę współczesną, a który można zawrzeć w słowie Symetrie i zasady zachowania. Formalizmy Kwantowości plus zastosowane prawa symetrii tworzą tak zwany Model Standardowy (MS), który jest obowiązującym Paradygmatem fizyki współczesnej.
W końcowych latach XX wieku powstały dodatkowo jeszcze inne teorie fizyczne, które w zamierzeniu miały Unifikować wszystkie znane siły. W szczególności grawitację z siłami, które już zunifikował MS (Model Standardowy). Powstała Teoria Strun, później jej uogólnienie M-Teoria. Wszystkie one jednak bazowo oparte są na koncepcji Kwantowości, wszystkie ono bazowo są odmienne od fizyki Klasycznej. Wszystkie stanowią nową jakość. Co bardzo ważne praktycznie wszystkie nie podlegają falsyfikacji. Nie można je praktycznie sprawdzić empirycznie, ponieważ energie, jakimi musieliby dysponować fizycy, by je sprawdzić empirycznie, są gigantyczne, poza zasięgiem, nie tylko wszystkich ośrodków badawczych, ale w ogólności poza zasięgiem ludzkości. Tym samy doszło do tego, że tak zwany Fizykalizm, czyli nurt w fizyce polegający na tym, że fizycy, Naukowcy, uznają za fakty naukowe tylko pojęcia i obiekty oraz teorie, które można empirycznie doświadczyć, uległ w końcówce XX wieku poważnemu nadwątleniu.
2. Mechanika Kwantowa a Mechanika Klasyczna
Dwudziesty wiek przyniósł z perspektywy dzisiejszych czasów prawdziwy przełom. Oto, Mechanika Klasyczna a i ogólnie fizyka klasyczna była napisana i sformułowana w języku Determinizmu. Czyli innymi słowy, Przyczyny, które inicjują procesy fizyczne są wystarczające i dostateczne dla realizujących się Skutków. Zapisać to można tak:
∀Przyczyny (Przyczyna →Skutek)
I jak już sobie wyjaśniliśmy, Przyczyny mogą tu być: Sprawcze lub Celowe.
Zaś Mechanika Kwantowa, ogólnie Kwantowość, jest napisana już z innego punktu, jest napisana nie w duchu Determinizmu. A więc w jakim, spytasz? To się ściśle okaże w dalszej części książki. Teraz mogę stwierdzić dość enigmatycznie, iż z naszej percepcji zmysłowej (Poziom Mierzalny) jest ona w pełni Indeterministyczna.
Zapisać to należy tak:
∀Przyczyny (Skutek → Przyczyna)
Innymi słowy, Przyczyny (Sprawcze lub Celowe) są, owszem konieczne, lecz są także niewystarczające. Co należy rozumieć tak, iż nawet znając z naszego poziomu obserwacji Przyczyny nie możemy być pewni Skutków, jakie w tym procesie fizycznym nastąpią. Jeśli jednak powstał Skutek, to jest on wystarczający i w sposób jednoznaczny wyznacza przyczynę, która go spowodowała.
Czyli wielka niewiadoma?
I tak i nie. O tym będę pisał, ale na teraz ważne jest to podkreślenie, iż tak jest z poziomu naszej obserwacji, z poziomu zmysłowego (Poziom Mierzalny). Okazuje się, iż, co później wytłumaczę i wyjaśnię, istnieją dwa poziomy Świata. Te pierwszy, to Poziom Mierzalny, poziom twardej materii, poziom zmysłów, ale ten drugi poziom, to Poziom Niemierzalny. I ten drugi poziom, Poziom Niemierzalny rozpatrywany jest dopiero w Kwantowości, czyli Mechanice Kwantowej i jej dalszych klonach. Ten pierwszy poziom zawsze był rozpatrywany od Arystotelesa po Einsteina w fizyce klasycznej, ten drugi zaś poziom, Poziom Niemierzalny jest poziomem niedostępnym naszym zmysłom, naszym obserwacjom, naszym doświadczeniom. Jest on nie rejestrowany przez nasze zwykłe pięć zmysłów oraz przez doświadczenia fizyczne i aparaturę pomiarową, które są wszak przedłużeniem naszym zwykłych zmysłów. I co najważniejsze, procesy, które dzieją się tam na tym poziomie, choć są niemierzalne, poza obserwacją, manifestują się potem finalnie na Poziomie Mierzalnym w postaci konkretnych i realnych (obserwowanych) Skutków. Skąd więc wiadomo, że taki poziom, ten Poziom Niemierzalny istnieje, wręcz musi istnieć?
Przypatrzmy się wprzódy więc matematyce (formalizmom), jaką stosuje się w fizyce klasycznej oraz w Kwantowości. Powszechnie naucza się na poziomie ogólnym, iż mamy kilka rodzajów liczb. Są liczby Naturalne, liczby Całkowite, liczby Wymierne i liczby Niewymierne. Stanowią one w sumie całość zbioru liczb Rzeczywistych. Okazuje się jednak, że nie jest to do końca precyzyjne i wyczerpujące. Choć te liczby, o których teraz będę pisał, znane już były częściowo w starożytności, przynajmniej podejrzewano ich istnienie, to jednak dopiero w Średniowieczu matematycy włoscy mogli przekonać się o ich realności, gdy poszukiwali ogólnych rozwiązań równań algebraicznych trzeciego stopnia. A więc jest jeszcze jeden typ liczb, które ja intuicyjnie w swoich publikacjach nazwałem nieRzeczywistymi, a które matematyk włoski okresu wczesnego Renesansu Bombelli w swoim dziele z 1572 r. Algebra Opera nazywał nierzeczywistymi. Czyli intuicja z tego punktu widzenia nie zwiodła mnie. Później jednak Kartezjusz nadał im, moim zdaniem, mylną nazwę liczb urojonych, która to nazwa się powszechnie przyjęła. Co to za liczby? Są to liczby, w odróżnieniu od liczb Rzeczywistych, liczby, których potęga druga jest ujemna. To jest właśnie ten wyróżnik. Dlatego ja dość intuicyjnie nazwałem je nieRzeczywistymi, bo przy liczbach Rzeczywistych potęga druga jest zawsze większa lub równa zeru. Spytasz się, i co to niby daje? Daje to to, iż zbiór liczb zawierających i liczby Rzeczywiste i liczby nieRzeczywiste domyka algebraicznie systemy matematyczne, które je zawierają. To znaczy, że wszystkie równania i problemy algebraiczne (matematyczne) mają rozwiązania w tym zbiorze, rozwiązania nie uciekają w jakiś ogólniejszy większy zbiór liczbowy. I, co ważne, jest to najmniejszy taki zbiór liczbowy. To być może byłaby tylko ciekawostka matematyczna, ale ja doszedłem drogą rozważań, choćby nawet problemów, które opisuję w swoich publikacjach, że słuszna jest i obowiązująca Zasada Pitagorejska, że wszystkie prawdziwe pojęcia i wielkości matematyczne mają swoje odzwierciedlenie w zjawiskach i procesach, i pojęciach fizycznych. Tak już jest. To nie jest aksjomat ujrzany intuicyjnie drogą natchnienia, lecz drogą okrężną po żmudnych rozważaniach, niejako dookoła, od końca do początku, doszedłem do takiej konkluzji. Z punktu więc fizyki, mogę teraz, jednak z pewnym wyprzedzeniem, który jeszcze później uzasadnię, powiedzieć, iż zbiór liczbowy zawierający i liczby Rzeczywiste i liczby nieRzeczywiste stanowi podstawowe i bazowe spektrum liczbowe przy rozważaniu “wszystkich” procesów fizycznych. Takim najmniejszym zbiorem jest zbiór liczb Zespolonych.
z= a + ib, gdzie a,b należą do zbioru liczb Rzeczywistych, a i²=-1; z należy do zbioru liczb Zespolonych.
Teraz dość ogólnikowo stwierdzę, co jednak będzie potem ważne, iż liczby zespolone są amierzalne, właściwie niemierzalne. Wiec wszystkie pojęcia, wielkości i wartości przedstawiane za pomocą tych liczb nie mogą być zmierzone w realnej rzeczywistości. Czy one więc nie istnieją? To była jednak z kilku przesłanek, która naprowadziła mnie na podział ten, iż struktura naszego Świata nie może być jednopoziomowa. Muszą być głębsze struktury. Nazwijmy je uogólnionym Poziomem Niemierzalnym. A więc odpowiedź na to pytanie to, owszem one istnieją, ale nie na zwykłym Poziomie Mierzalnym, lecz na Poziomie Niemierzalnym.
Okazuje się, że dopiero w XX wieku Nauka, fizyka, a precyzyjnie Mechanika Kwantowa jako pierwsza gałąź fizyki sięgnęła do tego drugiego poziomu Świata, Poziomu Niemierzalnego. Na razie więc wszystko wydaje się jasne i logiczne (spójne logicznie). Tylko że, właściwie nie wiadomo z jakich przyczyn, Nauka, fizyka tego nie rejestruje i od początku powstania Kwantowości nie dopuszczała. Wszechobecny Determinizm, Fizykalizm i Ateizm, panujący w nowożytnej Nauce, odrzuca i odrzucał wszelkie koncepcje, jakoby miał istnieć jakiś poziom nie dostępny naszym zmysłom. Takim pomysłom od razu przyczepia się łatkę paranauki. To jest jeszcze to pokłosie zachłyśnięcia się Racjonalizmem doby Oświecenia, potęgą umysłu i samodzielnością człowieka wobec Natury. Ale, zastanówmy się, jeżeli faktycznie istnieje uogólniony drugi poziom, nazwany przeze mnie Niemierzalnym, to czy nie kojarzy ci się, Czytelniku, jednoznacznie z Duchowością, głębszym poziomem egzystencji? Na razie zostawmy ten aspekt Duchowości, skupmy się na naukowych konsekwencjach i efektach wynikających z dopuszczenia koncepcji drugiego poziomu rzeczywistości, który wynika z formalizmów matematycznych zastosowanych w Kwantowości (Mechanika Kwantowa). Przyjrzymy się podstawowemu równaniu falowemu Mechaniki Kwantowej (Obraz Schrödingera).
ih∂/∂t(ψ)= Ηψ
Gdzie mamy pochodną cząstkową po czasie funkcji stanu układu (ψ) oraz Hamiltonian układu (H). Mamy też, co bardzo ważne, w tym równaniu liczbę nieRzeczywistą, urojoną (i). Czyli obiektywnie musimy stwierdzić, że to równanie i rozwiązania, które też mają wymiar zespolony, nie są z Poziomu Mierzalnego, powszechnie nam dostępnego? Ktoś powie, a to jest przecież tylko równanie, ileż w fizyce mamy wzorów zawierających liczby zespolone i one przecież nie określają żadnego drugiego poziomu, to jest wszystko kwestia interpretacji. Można by tak spłycać sprawę i iść w zaparte (zgodnie z Fizykalizmem), ale przecież rozwiązaniami tego równania są zespolone funkcje falowe, które także reprezentowane są przez liczby zespolone. Czyli one nie mogą być mierzalne na naszym Poziomie Mierzalnym. I to równanie i te funkcje, jego rozwiązania, opisują fizykę jak najbardziej realnego układu fizycznego. Jedyna i wydaje się spójna logicznie interpretacja tego faktu to to, że musi istnieć drugi poziom, Poziom Niemierzalny, a to równanie i jego rozwiązania reprezentują fizykę z punktu widzenia tego poziomu.
Przyjrzyjmy się jednak, jak współczesna Nauka, ta która przyjmuje za fakt naukowy tylko to, co da się pomierzyć (Fizykalizm), ta ateistyczna, ta na wskroś jednak przywiązana do mechanistycznej, Deterministycznej wizji Przyrody, interpretuje fenomeny Kwantowości. Ogólnie, co do matematycznych formalizmów Kwantowości nikt nie dyskutuje. One są w miarę proste i przejrzyste. Na tej bazie rozwinęły się różne technologie doby współczesnej. Dziś po zgoła stu latach na podstawie matematycznych formalizmów Kwantowości wynaleziono tranzystory, lasery, skomplikowaną elektronikę. Procesory, komputery i wszystko to, co związane jest z nowoczesną technologią i jej praktycznym zastosowaniem. Problemy zaczynają się, gdy dochodzi do metafizycznych konkluzji. I tu, do dnia dzisiejszego Nauka ma same problemy. Nauka nie chce dopuścić za wszelką cenę możliwości istnienia tego drugiego, Poziomu Niemierzalnego. I stąd istnieją tylko jednopoziomowe Interpretacje Kwantowości, które wszystkie, poza jedną, o której za chwilę, prowadzą do niespójności logicznych, sprzeczności, w najlepszym wypadku do niewyjaśnionych paradoksów lub zaprzeczeń praw logicznych. Tak naprawdę wszystkie one więc mogą i muszą być odrzucone, zgodnie z uogólnionym dowodem Nie Wprost. Bo jeśli coś prowadzi do absurdu, to jest to fałsz (dowód nie wprost). Nie znaczy to jednak, że sama Kwantowość jest fałszywa. Znaczy to tylko, że wszystkie interpretacje tej Kwantowości, poza jedną interpretacją Everetta, są na pewno fałszywe, bo prowadzą do jawnych absurdów (Reductio ad absurdum). Ale Interpretacja Everetta też, moim zdaniem, jest błędna, tylko z innego punktu widzenia. Z tego powodu jednak, że nie zostaje ona sfalsyfikowana ze względu na dowód nie wprost (Reductio ad absurdum), większość współczesnych nawskroś ateistycznych fizyków uznało ją za tą jedyną słuszną. Dlaczego nie zostaje sfalsyfikowana? Ponieważ de facto ona nie jest jednopoziomowa tylko nieskończenie wiele poziomowa. Zakłada absurdalną wizję pączkowania świata w niekończenie wiele rozłącznych światów. Dlaczego więc ja uważam, że i ona jest fałszywa? Ponieważ istnieje inne proste i niesprzeczne rozwiązanie. To plus brzytwa Ockhama pozwala mi skutecznie odrzucić tę ostatnią deskę ratunku dla wszelakiej maści ateistów. Tą interpretacją, która jako jedyna nie prowadzi do absurdów i sprzeczności jest Interpretacja Dwóch Poziomów Kwantowości. Nie jest to interpretacja, która dzieli fizykę na makro i mikro świat. Jest to interpretacja, która zakłada istnienie dwóch poziomów świata. Poziomu Mierzalnego, Twardej Materii oraz drugiego poziomu, Poziomu Niemierzalnego, czyli tego, który nie poddaje się zmysłom, pomiarom. O tym będę za chwilę pisał szczegółowo. Teraz jednak przejdę do sprzeczności i absurdów, które niosą ze sobą wszystkie interpretacje jednopoziomowe, czyli te, które nie uznają procesów i zjawisk nie poddających się pomiarowi i obserwacji. Interesujące jest to, iż u zarania powstawania Kwantowości fizykom teoretykom pokroju Diraca, Schrödingera, Heisenberga czy nawet Einsteina nawet do głowy by nie przyszło, iż rzeczywistość namacalna nie jest jedyną i tylko dopuszczalną. To było, no i jest jeszcze, to pokłosie Rewolucji Kopernikańskiej, która strąciła Boga i Duchowe z piedestału Nauki. To było to dziedzictwo Oświeceniowe, to była ta tradycja i ufność w to, że to człowiek jest miarą wszystkiego i jest tylko to, co on doświadcza. Epoka Oświecenia, rzeczywiście ze swoim zwycięstwem Determinizmu, Mechanicyzmu, zdawała się potwierdzać tę ludzką samodzielność i samowystarczalność. Lecz my dzisiaj z perspektywy lat możemy śmiało stwierdzić, iż to była tylko iluzja. Już tak trudne dla naukowców jest stwierdzenie, iż Kwantowość implikuje triumf Indeterminizmu nad Determinizmem (z punktu widzenia Poziomu Mierzalnego), z tego powodu fizyka zdaje się im nielogiczna i niezrozumiała. Niestety wszystkie jednopoziomowe i ateistyczne interpretacje jak choćby Kopenhaska Interpretacja i jej liczne klony potęgują tylko ten zamęt. Na czym więc polegają kłopoty wszystkich jednopoziomowych interpretacji, jakie by one nie były?
Przede wszystkim na tym, iż próbują one, te wszystkie jednopoziomowe interpretacje — właściwie innego wyjścia nie ma- mieścić (zmieścić) te wszystkie pojęcia, idee Kwantowości, te zespolone idee, z pojęciami i wielkościami o charakterze Rzeczywistym na tym samym, jednym poziomie, na Poziome obserwowalnej rzeczywistości, bo wszak innego nie ma. A to prowadzi w prostej drodze do paradoksów, sprzeczności i zaprzeczeń elementarnych praw logiki. Dlatego też podstawowy problem w tych interpretacjach (np. Kopenhaska Interpretacja Kwantowości) to między innymi Problem Pomiaru. Jak tu z postaci funkcji zespolonej reprezentującej stan układu przejść bezproblemowo w rzeczywistą wartość mierzonego parametru? Stąd narodziły się takie potworki ideowe jak Redukcja Funkcji Stanu (Kolaps Kwantowy). Ileż to wygibasów naukowych powstało, aby uzasadnić realność takiego podejścia.
W ogólności ileż to opracowań filozofów przyrody powstało i pewnie powstanie jeszcze, aby w jakiś sensowny sposób wyjaśnić subtelne różnice pomiędzy różnymi interpretacjami Kwantowości (tymi jednopoziomowymi). Czasami rzecz rozbija się o jedno słowo, jedno pojęcie, jedno odniesienie, a dymu tyle, że tak naprawdę nikt tego nie rozumie. Ja się tu muszę uczciwie przyznać większość interpretacji Kwantowości jest dla mnie niezrozumiała z powodu zbyt naciąganych argumentów. Kopenhaska Interpretacja, Relacyjna Interpretacja, Transakcyjna Interpretacja, Konsystentnych Historii Interpretacja, Rieglowska Interpretacja i mnogo jeszcze innych. Ja, broń Boże, nie podważam kompetencji autorów, fizyków, którzy zaproponowali te interpretacje, ale muszę tu powiedzieć, że są one straszliwie niejasne i tylko odstraszają amatorów w ogóle od próby zapoznania się z Kwantowością. A wszystko sprowadza się do tego pomieszania na jednym (dostępnym wszak poziomie) pojęć i wielkości zespolonych z pojęciami mierzalnymi. W miarę, gdy będę pisał dalszą treść tej książki, przypatrzymy się tym wszystkim problemom interpretacji jednopoziomowych dokładniej.
Teraz tylko zauważę, iż liczby Zespolone, ogólnie Ciało Liczb Zespolonych, odkryto znacznie wcześniej niż Mechanikę Kwantową. I to co najmniej kilka wieków wcześniej. A to, że ich prawidłowe funkcjonowanie zwykło być powiązane z Poziomem Niemierzalnym, tak powinno być zgodnie z Zasadą Pitagorejską, której jestem gorącym orędownikiem, nie zostało od razu w momencie ich odkrycia uświadomione sobie i właściwie do dziś jest z tym spory kłopot. Przez kogo? Przez tych “wielkich”, tych, którzy tworzyli Naukę i jej Paradygmaty. To wszystko spowodowało niemożliwy wręcz zamęt. Zawodowi matematycy “chorują” na dziwną przypadłość, która objawia się tym, iż często zapominają, iż matematyka jest językiem fizyki i to przez nią (matematykę) poznajemy, jak funkcjonuje świat (fizyka). Matematycy chcieliby, by ich domena była jakąś abstrakcyjną, oderwaną od realiów gałęzią Nauki. Jednak już od starożytności wiadomo, że matematyka ma zawsze konkretne zastosowania, a jak powiedział Rutherford ...liczy się tylko fizyka, reszta to filatelistyka...Istotnie, wszystko co realne, sprowadza się do fizyki. Pierwotnie przecież już w Sumerze rozwinęły się podstawy arytmetyki tylko w tym celu, by można było policzyć barany w stadzie. Matematycy fizyczni lub inaczej fizycy matematyczni są święcie przekonani o istnieniu świata Platońskiego, czyli takiego miejsca, gdzie ontologicznie istnieją ideały matematyczne. I tak, idea koła, choć realnie nigdy nie osiągniemy go w praktyce, nie wykreślimy cyrklem idealnego okręgu, to ona istnieje, ta idea, w świecie Idei Platońskich. Dlatego wielu z nich skłonnych byłoby uznać, że liczby zespolone funkcjonują w takim Platońskim świecie. I w tym kontekście oni pewnie uznaliby, iż w świecie Platońskim może istnieć Poziom Niemierzalny. Ja uważam, że należy pójść krok dalej, pójść drogą Zasady Pitagorejskiej, która przyjmuje, że każdy prawdziwy fakt matematyczny ma swój odpowiednik w realnym świecie, w fizyce. I dlatego uważam, że wszystkie jednopoziomowe interpretacje Kwantowości są co najmniej nieprecyzyjne, a faktycznie istnieją dwa poziomy. Poziom Mierzalny i uogólniony Poziom Niemierzalny. I uważam, że ten Poziom Niemierzalny istnieje realnie, choć nie poddaje się obserwacji, co później w jeszcze w tej książce udowodnię.
Jak pisałem, wszystkie interpretacje jednopoziomowe Kwantowości generują same problemy logiczne i paradoksy. Paradoksy, czyli coś, co uznaje się za prawdziwe, choć jest sprzeczne z logiką. Lecz, jak wiadomo, wszystko co wiedzie do zaprzeczenia logiki, stanowi kanwę dowodu Nie Wprost. Więc paradoksy są może akceptowane w humanistyce, ale w fizyce to już nie. Nawet te tak zwane paradoksy w STW okazuje się, przy głębszym rozważeniu, są tylko pseudo paradoksami i są wyjaśnione w sposób poprawny przez logikę klasyczną. Jeśli jednak popularne interpretacje Kwantowości wiodą prostą drogą do paradoksów, to jest to dowód ich niepoprawności. Ja znam tylko dwie interpretacje, które pozbawione są tych wad logicznych. To są: Interpretacja Everetta i Interpretacja Dwóch Poziomów, ta którą w tej książce prezentuję. Co tu jednak należy podkreśli wszystkie, te poprawne i te fałszywe interpretacje, bazują na tym samym formalizmie matematycznym. Ale to jeszcze bardziej zaciemnia cały problem, bo nawet choć interpretujemy Kwantowość fałszywie, to trudno to sfalsyfikować. Jednak zawsze jest jednak kilka elementów, które wskazują właściwą drogę. Tym dodatkowym elementem jest prawidłowa forma Prawa Przyczynowości, czyli Prawa Przyczynowo Skutkowego. Czyli można stwierdzić, iż ontologiczny sens formalizmu zespolonego oraz prawidłowa forma Przyczynowości, oraz zasada Pitagorejska, a także oparcie się na prawach Logiki Klasycznej, w pełni potwierdzają prawdziwość i zasadność Interpretacji Dwóch Poziomów Kwantowości.
3. Niezbędna teoria ezoFizyki