Fizikai Szemle nyitólap

Tartalomjegyzék

Fizikai Szemle 1998/5. 149.o

SZÁZADVÉGI FELADAT: A KEZDET PARADOXONAINAK FELOLDÁSA

Tisza László
az MIT emeritus professzora,
az Eötvös Társulat tiszteleti tagja

 

Marx György 1993 decemberében a Fizikai Szemle hasábjain egy cikket közölt "Fin de Sičcle" címmel. A Fin de Sičcle nagyon jó fogalom. Igaz, hogy nincs semmi ok arra, hogy 1800 vagy 1900 különleges jelentőségű legyen a fizika történetében. De mégis, Volta 1800-ban fedezte fel a Volta-oszlopot, ezzel kezdődött az elektromosság százada, a 19. század. A kvantummechanika 1900-ban kezdődött, azaz a kvantumszázad kezdődött el 1900-ban. Vannak ilyen különös kapcsolatok.

Marx azt kérdezi, hogy ha a 19. század végén nagyon hibásak voltak a várakozások a fizika fejlődésével kapcsolatban, akkor mi van most? Egyszerűen mondjuk azt a diákoknak, hogy csinálják tovább azt, ami az utóbbi évtizedekben volt divatos, vagy mégis valami új jön? Az évszázad végére tudunk-e többet nyújtani diákjainknak, mint a régi bölcsességek ismételgetését? Remélte, hogy van valami új, de nem mondja meg tulajdonképpen, mi is az az új.

Tavaly jelent meg John Horgan könyve, aki a Scientific American munkatársa, "The End of Science" [1] címmel. Azt mondja, hogy vége a tudománynak, nem lesz több új. Az egyik ok az, hogy elfogynak az új területek, amire ki lehetne terjeszkedni. A második az, hogy ki lesz olyan okos, mint Einstein, sőt okosabb nála? A dolog teljesen reménytelennek tűnik. Ami megoldható azt megoldottuk, és amit nem oldottunk meg, az úgysem tudjuk megoldani.

Kinek van igaza? Én mégis inkább Marx György mellé állnék. Először azonban tisztázni kell, hogy mi az, hogy új. Ez nem olyan egyszerű. Hogy kifogyunk az új területekből - az igaz is, meg nem is. Persze biológia, pszichológia és még más területek is még nyitva vannak, de ő nem erre gondolt, hanem az anyag szerkezetének elemeire.

Nézzük meg, hogy mi az újdonság. Az újdonság fogalma ugyanis kétértelmű. A nyilvánvalóbb jelentése az ismeretek egy új területének feltárása. Tudjuk, Newton éppen ezt tette. De akkor minek nevezzük azt, ahogyan Euler, Lagrange és Hamilton a Princípiát átformálta? Newton az örökölt euklideszi geometriát alkalmazta a tapasztalatok leírására, míg utódai ráleltek az optimális matematikai nyelvre és fogalomalkotásra, hogy kapcsolatot létesíthessenek kísérlet és matematika között. Ezt Conceptual Reconstructionnak nevezik. Thomas Kuhn észrevette, hogy ez a mai fizikában nem történt meg. De szerintem abban már nincs igaza Kuhnnak, hogy ezt nem is lehet megtenni, itt lehet az újításnak szerepe! Planck, Einstein, Bohr, Heisenberg és társaik megnyitották a mikrofizika tudományát. Azonban, miként Newton euklideszi nyelven fogalmazta meg a mechanikát, ezek az emberek a klasszikus (Hamilton, Lagrange) nyelven írták le a mikrofizikát, és miután ez nem ment, elfogadták a paradoxonokat.

Mi az a paradoxon? Azt szoktuk mondani, hogy az elektron paradoxikusan viselkedik. Ennek semmi értelme sincs. Az elektron természeti jelenség, nem viselkedhet paradoxikusan. Paradoxon akkor lesz, ha van egy elképzelésünk, és ez a "rossz" elektron nem jól viselkedik.

Hadd fogalmazzam meg ezt általánosabban: a paradoxonok akkor merülnek fel, ha új jelenségek leírásakor régi fogalmakhoz ragaszkodunk. (Új bor - régi üvegekben.) Így azután ideiglenes heurisztikus eszközökként elfogadhatók a paradoxonok, de állandósulásuk megengedhetetlen. Állandó képződményekként pedig akkor maradnak fenn, ha a módszertan nem elég szigorú ahhoz, hogy azt mondaná: ezt nem szabad elfogadni, és nem is elég hatalmas ahhoz, hogy kiutat mutasson. Ezért a probléma most módszer-probléma.

Miből áll a módszer? A matematikai fizikában néhány elemi fogalmat kombinálunk, például a newtoni fizikában a fázistér vektorából mindent ki lehet hozni. Először azt nézzük meg, hogyan lehet kapcsolatot teremteni a kísérletek és a matematika között. Az euklideszi geometria egy triviális eset. A régi definíció szerint geometria az, amit körzővel és vonalzóval meg lehet rajzolni, azaz köröket és egyeneseket tartalmaz. Honnan születtek meg a körök és egyenesek? A sumérok figyelték az állócsillagok pályáját, és az kör volt. Ezt az asszírok is tudták. A nikénéi teremben meghatott, hogy az tele volt olyan ékszerekkel, amelyekben köralakú díszítések voltak. A kör már ezer évvel Euklidesz előtt megjelent a görög gondolatvilágban. Ptolemaiosz csak körökkel próbálta leírni a bolygómozgásokat. Kepler a kúpszeletekkel nagyon megjavította a leírást. Newton továbbment. Azt találta, hogy az euklideszi térbeni elmozdulást elosztva az idővel és megszorozva a tömeggel egy impulzusvektor lesz. A vektor irányváltozása a körmozgásnak, míg nagyságának változása a lineáris mozgásnak felel meg. Ezzel algebrát csinált, anélkül, hogy annak tekintette volna.

A 19. században a fizika túlment a geometrián. A század végén a klasszikus fizika legfőbb diszciplínái a tömegpontok mechanikája, az elektrodinamika és a kémiai termodinamika voltak, hogy a kevésbé fontosakat most ne említsük. Ez a sokféleség jelzi, hogy az elmúlt század során a tudás milyen elképesztő mértékben bővült. A megszerzett ismeretek vegyes felhasználása lehetővé tette a laboratórium-szintű jelenségek teljes körű magyarázatát. Ugyanakkor ez a sokféleség azon egység elvesztését is jelentette, amely egy évszázaddal korábban oly meggyőzőnek tűnt, amikor is a Newton-Laplace-féle mechanika uralta a színteret, igaz, egy meglehetősen zilált színteret. Mi hát a klasszikus fizika? Ez a három együtt? Amikor a klasszikus fizika letöréséről beszéltek, akkor csak azt akarták mondani, hogy a klasszikus mechanikát nem lehet mindig alkalmazni.

Az áttörés Max Planck nevéhez fűződik, akinek szenvedélye volt a termodinamika. A hatásállandó felfedezésével kapcsolatos visszaemlékezéseiben vezérmotívumként említi korai termodinamikai elkötelezettségét. Ő a fizikusok azon szűk kisebbségéhez tartozott, akik vonzóbbnak találták a termodinamika egyetemességét, mint a kinetikus elmélet problémamegoldó képességét és szemléletességét. A termodinamika redukciója a (klasszikus) kinetikus elméletre számára csalóka látszat volt, és ezt a nézetét már tanulóként elsajátította, elsősorban nem professzorainak, hanem inkább Clausius írásainak köszönhetően, melyekkel először 1878-ban találkozott. Termodinamikával foglalkozó korai munkája alig gyakorolt hatást kollégáira, ezért olyan probléma keresésébe fogott, ahol a módszer érdeme tagadhatatlanná válik.

Míg a termodinamika két főtétele egyetemes érvényű, addig a vizsgált fizikai rendszerek mindig specifikusak voltak, így a problémák azon körén kívül rekedtek, melyek a fundamentális fizika céljait látszottak szolgálni. Ezt Planck is elismerte, mint az érvényesség jogos megszorítását, ám a termodinamikát abban a bizonyos belső magban szerette volna látni. Munkássága akkor vett új fordulatot, amikor visszaemlékezett Kirchhoff felfedezésére, mely szerint a feketetest-sugárzás olyan termodinamikai rendszerként fogható fel, amelyre jellemző az áhított egyetemesség: az energiaeloszlás csak a hőmérséklet és a hullámhossz függvénye, és független bármely anyag természetétől. Az üregsugárzás termodinamikája a lehető legszerencsésebb választás volt. Ez egy elsődleges "makroszkopikus kvantumrendszer", azzal az elnevezéssel élve, melyet Fritz London vezetett be a szuperfolyadékokra. A kémiának az az egyik olyan tulajdonsága, melytől a fizikusok idegenkednek, hogy túl sok anyagfajtával dolgozik. Itt viszont csupán egyetlen anyagról van szó, alapot szolgáltatva egy egyetemes fizikai rendszer számára. Az energiaeloszlás csak a hőmérséklettől és a hullámhossztól függ, és nem függ az anyagi minőségtől. Nem merül fel a fizika és a kémia egybeolvasztása, hiszen a kémia továbbra is a saját tágas területével birkózik, de Planck arra a sejtésre jutott, hogy az egzakt tudományok egy egyetemes maggal bírnak, ahol mindegyikük módszere érvényesül. Ez talán súlyos tehernek látszik, de ő megmutatta a belőle adódó előnyöket is.

Hogyan jött ki a h? Képzeljük el, hogy földrajzot csinálunk ahol síkgeometria van a lokális viszonylatokban, és gömbháromszögtan a globális viszonylatokban. Ha a kettőt össze akarjuk egyeztetni, akkor a Föld sugara megjelenik. Így jött be a h. Az volt a fontos, hogy Planck az entrópiaegyenlettel dolgozott, és a termodinamikai nyelvben tudott interpolálni. A kollégák mind a dU/dT-t próbálták közelíteni amit nem lehet. Miután Planck megtalálta a formulát, kidolgozta a statisztikus elméletét is.

Bár a megfelelő probléma már előkerült, a termodinamika és a maxwelli elektrodinamika összhangját még számos nehézség késleltette. Az elmélet kulcslépése az entrópia Boltzmann-féle statisztikus definíciójának elfogadása lett. Planck legyőzte előítéletét Boltzmann-nal szemben, amikor rájött: annak statisztikus mechanikája mélyebb, mint a kinetikus elmélete [2].

Mivel a sugárzás és anyag kölcsönhatásának hordozójaként mechanikai oszcillátorok adódtak, felmerült a három klasszikus elmélet harmonikus kapcsolatának igénye. 1918-as Nobel-előadásában Planck visszaemlékezett arra a pillanatra, amikor a mozaik darabjai hirtelen a helyükre kerültek: "...életem legküzdelmesebb munkája után fény gyúlt a sötétben, s olyan távlat nyílt meg, mely addig álmaimban sem merült fel". És valóban, mintha csak varázsszóra történt volna, a rövid és a hosszú hullámhossz-tartományok között interpolált formula numerikus értékként szolgáltatta a két abszolút állandót, a k Boltzmann-állandót és a h elemi hatást, melyek az anyagi jellemzőktől függetlennek adódtak. A k alapján pedig következtetni lehetett mind az Avogadro-számra, mind az elemi töltésre, amely a Faraday-féle ekvivalens töltés és az Avogadro-szám hányadosaként adódott. Planck elfogadta a k konstans összekapcsolását Boltzmann nevével ő fejezte ki azt mint az entrópia és a mikroállapotok számának logaritmusa közti arányossági tényezőt. Azt ellenben kimutatta, hogy Boltzmann sohasem gondolt rá úgy, mint egy meghatározott értékkel rendelkező fizikai állandóra. Planck úgy látta, első alkalommal ő tette a k állandót az azt megillető helyre. Tudatában volt, mekkora jelentősége van az elemi töltés pontos meghatározásának egy olyan időszakban, amikor még csupán nyers becslések álltak rendelkezésre.

De a fizikus közösség még nem adta be a derekát, hiszen Planck termodinamikai tárgyalásmódja eltért a fő csapástól; az elemi töltés levezetése hőmérsékleti sugárzási mérésekből legalábbis gyanúsnak tűnt. Planck is csak akkor bizonyosodott meg igazáról, amikor az általa adott értéket megerősítették Rutherford és Geiger alfa-részecske mérései. A helyzet még ennél is bonyolultabb a Planck nevével fémjelzett h konstans kapcsán. Ő maga is csak fokozatosan döbbent rá, hogy ezen állandó betüremkedése az elméletekbe mennyire komolyan megsérti a klasszikus fizikát. Sikertelen kísérletei, hogy a h-t beolvassza a klasszikus fizikába, nem segítették a valódi megértés felé, és attól eltekintve, hogy a feketetest-sugárzás épp megfelelő volt a kvantumelmélet első támadásának megindításához, ez a probléma túl komplikált volt ahhoz, hogy egy érthető kvantumelmélet megalkotásához vezessen.

Planck óvatos stratégiája alkalmas volt h értékének megállapítására, ám ahhoz, hogy magának a hatáskvantumnak jelentést lehessen tulajdonítani, egyenesen a kvantumjelenségekhez kellett fordulni. A kísérleti ismeretek akkori gyér voltát tekintve ez elképesztő feladat volt, melyet Einstein és Bohr tűzött ki. Ők elég bátrak voltak ahhoz, hogy a találgatásban vállalják a hibázás lehetőségét, s tudták, hogy hogyan leplezzék kétértelműséggel és paradoxonnal a tudatlanságot. Viszont azt is tudták, hogyan vonják ki a kétértelműségből az igazságot, és ez példaképpé tette őket: a bátorság és kétértelműség életmóddá vált. Ez teljesen rendjén is lehet például a kozmológiában, ám a kétértelműség és a paradoxon már nincs helyén a részecskék leírásánál, miután azok rutinobjektumokká váltak laboratóriumok ezreiben. A "részecske" szó jelentésének kétértelműsége tette annyira csökönyössé az Einstein-Planck vitát is. A beszélgetés felidézéséhez szükségünk lenne egy nyelvre, amely kifejezi a különbséget a hold és az elektron között. Ezzel a témával részletesen foglalkozom a "Shimony Festschrift"-ben megjelent írásomban, [3] ez az alkalom viszont kitűnő arra, hogy Planck módszertanát újra megvizsgáljuk.

A kutatási programban, mely a hőmérsékleti sugárzási képlet felfedezésével érte el tetőpontját, Planck motivációja az volt, hogy a termodinamika elsőbbrendűségét demonstrálja a kinetikus elmélethez képest, mégpedig az eredmények egyetemes érvényének felmutatásával. Szeretném újrafogalmazni ezt a programot, hogy szélesebb alkalmazhatóságú, rugalmasabb módszertani elvhez jussunk. Ahogy korábban említettem, a századforduló uralkodó módszertani kérdése az volt, a fizika egységességét hogyan lehet "megmenteni" az elméletek sokasodásával szemben. A standard nézet szerint az elméletek egyikének kellett volna alapvető szerepet tulajdonítani. A kinetikus elmélet célja az volt, hogy a termodinamikát visszavezesse a klasszikus molekuláris mechanikára.

Az elmúlt század végén zavarta az embereket a klasszikus fizika pluralitása. Mindhárom fő elméletre akadt képviselő, aki alapvető szerepet tulajdonított neki. Megemlíthetjük (i) Boltzmannt mint a mechanikai egység képviselőjét, (ii) Poincarét az elektromágneses világkép hírnökeként, (iii) avagy Ostwaldot a kémiai termodinamikára építő energetikusként. Bár mindegyikük elképzelése ígéretesnek tűnt, ma már láthatjuk, hogy egyikük sem volt teljes mértékben sikeres. Valójában csupán visszalépést jelentettek az immár érett klasszikus elmélet sokféleségétől egy egyszerűbb múltból örökölt, szűkebb elmélet felé.

Ez volt a redukciós egyesítés. A továbbiakban Planck a módszerét, iránta tanúsított tiszteletem jeléül, progresszív egyesítés néven fogom emlegetni, szembeállítva a fentebb tárgyalt regresszív egyesítéssel. Einstein mindkettőt csinálta. 1905-ben a relativitáselméletben azt mondta, hogyha egyesíteni akarjuk a mechanika relativitását és az elektrodinamikát a benne szereplő univerzális állandóval, akkor vagy feladjuk a newtoni abszolút idő fogalmát és akkor új, mélyebb tér-idő fogalom lesz, és nem lesz paradoxon, vagy a paradoxon marad. Sokat vitáztak azon, hogy mi a különbség Lorenz, Poincaré és Einstein között. Lorenz kitalálta a Lorenz-transzformációt, Poincaré a relativitást, de nem vették észre, hogy ezek egyesítéséhez fel kell adni a newtoni abszolút tér és idő fogalmát. Ez az, amit Einstein megtett. Bámulatosan alkalmazta a Progresszív Egyesítést.

Sajnos, Einstein ezt nem tette meg mindig, 1905 márciusában írt egy cikket a fénykvantumról, ebben azt mondta, hogy a sugárzási rendszernek diszkrét struktúrával kell rendelkeznie. Ha itt is a Progresszív Egyesítést alkalmazta volna, akkor azt kellett volna mondania, hogy ha fenntartjuk a newtoni pontszerű részecske fogalmát, akkor baj lesz. Egy pont nem tud hullámozni. A hullámzás azt jelenti, hogy van egy véges koherenciatartomány. 1909-ben Einstein tartott egy híres beszámolót a Német Természettudósok és Orvosok összejövetelén Salzburgban. Itt arról beszél, hogy nem lehet elfogadni a hullámelméletet. A Planck-formula megköveteli, hogy a fluktuáció két részből álljon, az egyik korpuszkuláris, a másik hullám. Einstein teremtette meg a részecske-hullám paradoxont. Einstein belátta, hogy a sugárzási térnek diszkrétnek kell lenni, de akárcsak Planck, ő sem tudott elképzelni más diszkrét jelenséget, mint a newtoni részecskét. A kémiában is van egy atomfogalom, de az akkori elképzelés az volt, hogy a kémia alacsonyabbrendű elmélet. 1800 körül széles szakadék tátongott a fizika és a kémia módszerei között. A tudományok elkülönültségének tudatát csak tartósította az a hierarchia, melyet Auguste Comte állapított meg közöttük (csökkenő rang szerint: matematika, csillagászat, fizika, kémia, ... legvégül szociológia). Ez például ahhoz az előrejelzéshez vezetett, hogy soha nem leszünk képesek a csillagok kémiai összetételét tanulmányozni, [4] ami viszont látványos cáfolattal szembesült egy nemzedékkel később, amikor a fizikus Kirchhoff és a kémikus Bunsen megalapozta a színképelemzést, lehetővé téve ezáltal a csillagok kémiai vizsgálatát a tudományok együttes használatának segítségével. A mennyiségi analízis módszerét az együttműködés tehát tovább finomította, erre a századra érve pedig felkínálta az atom szerkezetét a kísérlet és az elmélet számára. Mindez nem jelentette a fizika és a kémiai között húzódó határ eltörlését, sőt mostanában mindkét tudomány egyre több és több ágra hasad a határterületein. A sokasodást szerencsésen ellensúlyozza az, hogy létezik az a belső mag, ahol minden tudományág találkozik, ez pedig magában foglalja a matematika olyan alkalmazását, amely meghaladja annak hagyományos feladatait: a mérést és a számolást.

Amit még ki akarok fejteni, az a fizika és a kémia viszonya. Ez egy különös magyar probléma, hiszen Wigner Neumann, Teller mindhárman kémikusok voltak. Wigner és Neumann okleveles vegyészmérnök lett, Teller korábban abbahagyta, mert sikerült meggyőznie papáját, és ő megengedte, hogy fizikusnak menjen. Valójában mindhárman matematikusok szerettek volna lenni, de a praktikus apák tudták, hogy matematikából nem lehet megélni. Viszont abban az időben Pesten mindenki tudta, hogy a kémia az fontos. Németország és a központi hatalmak csak azért tudták folytatni a háborút, mert a Haber-Bosch-eljárás biztosította a nitrogénfixációt, ami ugyanúgy kell a műtrágyához, mint a robbanóanyagokhoz.

A kémikusok akkoriban nagyon primitív eszközökkel dolgoztak összehasonlítva a fizikusokkal. Például Teller a legutóbbi cikkében leírja, hogy milyen öröm volt számára, amikor kiszabadult a kémiai tanulmányaiból és elmehetett Sommerfeldhez kvantummechanikát tanulni. Ez igaz, de amit ő is elfelejtett az, hogy a kvantummechanika paradoxikus volt a csillagászat szempontjából, de nagyon plauzibilis lett volna, ha a kémia oldaláról nézzük. Volta először azt gondolta, hogy örökmozgóval van dolga, de a megjelenő elektrokémikusok hamar kimutatták, hogy az áram és az energia forrása kémiai reakció [5].

Ez a jelenségkör az új kémia felfedezéseinek első sorozatát szolgáltatta, amely a fizikusok számára oly vonzó egyetemességgel rendelkezett. Míg az elektrokémia a kémia virágzó ágává vált, az elektromosságtan hasonlóan fontos lett a fizikában. Ez először a newtoni távolhatás elmélet nyelvén fogalmazódott meg, majd ezt hatályon kívül helyezte a kémikus Faraday, aki a Maxwell által később matematikailag kifejezésre juttatott mező koncepciót fogadta el. Megjegyzendő, hogy a kémiából származó koncepciók matematizálásának érdekében Faraday Stokes segítségével - megelőlegezte az algebrai topológia néhány globális vonatkozását. Az újabb kémiai problémák kreatív matematikai kezelésében Maxwell párra talált a fenomenológiai és statisztikai termodinamikával foglalkozó Gibbsben. Ezek az elméletek kétségtelenül gazdagították a klasszikus fizikát, lévén a newtoni mechanikán túliak, bár a newtoni és a Faraday-Maxwell-féle elképzelések versenyének kimenetele sejthető volt. Természetesen - kisebb ellenállás után - a fizikusok a sajátjuknak ismerték el a mezőkoncepciót.

A kémia és az elektromosság összefügg. A kémiában az elektrokémia nagyon fontos volt, a fizikában elektromosságtan keletkezett ebből. A két oldalt különválasztották. Ha a Faraday felfedezte elektromos ekvivalenciatöltést (96000 Cb/mol) összekötjük az Avogadro-számmal, akkor ebből következik, hogy van elemi töltés. Helmholtz így fogalmazott a Faraday-ről szóló előadásában (1881):..Faraday törvényének legmegdöbbentőbb eredménye talán a következő. Ha elfogadjuk azt a hipotézist, hogy az elemi anyagok atomokból állnak, akkor arra kell következtetnünk, hogy mind a pozitív mind a negatív elektromosság is felosztható elemi részekre, melyek az elektromosság atomjaiként viselkednek. " Ez a gondolat, ahogyan Post idézi (1971), így fejezhető ki szimbolikusan:

1 faraday / N= e, ahol N az Avogadro-szám.

Mindez nagyjából egy negyed századdal megelőzte J.J. Thomson azon felfedezését, hogy az elektron részecske, és aztán újabb harminc évnek kellett eltelnie, hogy az elektront hullámként ismerjék fel, rábukkanva az évszázad paradoxonára.

Azt mondom, hogy fel kell ismerni: van egy szubatomi kémia, és az elektron és a foton ennek részei; itt fúzió létesül a szubatomi kémia és a fizika között. A részecskék hullámjellegűek és a hullámhosszat diffrakcióval lehet mérni. Itt jön a fizikus. A kémiai mérés kvantitatív analízis. Meg kell tudni, hogy mi az, ami van. Különböző reakciókat csinálunk.

A színképelemzést a kémikus Bunsen és a fizikus Kirchhoff fejlesztette ki, akiket nem tartott vissza a tudományaik közti határ. Sajnos, ők nem gondoltak arra, hogy a fénykibocsátást összevessék az Avogadro-elvvel. Helmholtz előrelátásával eljuthattak volna a fénykvantumhoz anélkül, hogy azt pontszerűnek látták volna, elkerülve ezzel a hullám-részecske paradoxont. (Újabb történeti alternatíva!)

Az 1890-es évek elején népszerű elképzelés volt, hogy a szélsőségesen kis méretű newtoni részecskék soha nem lesznek észlelhetők, és az ilyen entitások nem is tehetők felelőssé a világ összetett fenomenológiai szerkezetéért. - Ezt fejezi ki Du Bois Reymond híres " ignoramus, ignorabimus!" mondása. ("Nem tudjuk, és soha nem is fogjuk tudni!") Mindez megváltozott az események azon sorozatával, amely a röntgensugarak 1895-ös felfedezését követte. Legjobb tudomásom szerint soha nem vizsgálták meg alaposan a kérdést, hogyan kellett volna módosítani az episztemológiai pesszimizmust ahhoz, hogy a mérési - tartomány váratlan növekedése megmagyarázható maradjon - mintha csak egy addig zárt ajtó hirtelen szélesre - tárult volna.

Úgy tűnik, az akkori általános következtetés szerint a Newton-Boltzmann-féle atomelmélet igazolást nyert, az abban kételkedők tévedése pedig bebizonyosodott. Ám amikor az elektron hullámtermészetűnek mutatkozott, a természet paradoxikus színben tűnt fel. A kvantummechanika védelmezői alkalmasint azt vetették ellene, hogy ha az atomok newtoniaknak bizonyulnának, akkor nem lennénk képesek észlelni őket. Sajnos azonban ez az érv soha nem került részletes kifejtésre, mivel a méréselmélet csupán a pályamérések korlátaival törődött, vagyis a fázistér leírásának a Heisenberg-elvből adódó korlátaival. A Heisenberg-féle korlát kétségtelenül érvényes, és a bizonytalansági elv éppen a megfelelő vezérfonal az elhelyezkedéssel kapcsolatos kísérletek vizsgálatához, mint amilyen például két vagy több részecske állapotfüggvényeinek "összegabalyodása". De ebben az esetben a mikrofizikát feltáró méréseknek ettől jellegükben el kell térniük, és ez fölveti a kérdést: mi a sikeres mérések episztemológiai státusza?

Az én tézisem az, hogy a részecskenyaláb tulajdonságait fizikai és kémiai természetű jellemvonásainak összjátéka teszi mérhetővé. A nyaláb paraméterei összekapcsolják a mechanikai és a belső paramétereket. A mechanikai aspektus viszont csak az impulzuson keresztül jelenik meg, a koordinátákat pedig belső paraméterek helyettesítik, melyek közé számítjuk a hullámvektort [6]. Ahogy korábban láttuk, a paraméterek egy halmazának helyettesítése egy másikkal a logikai folytatás jellemzője, és szöges ellentétben áll a kanonikus eljárással, ahol a hullámtermészet csak azon a ponton jelenik meg, amely már valóban paradoxikus.

Nézzük meg most azt, hogy a diszciplínák összjátéka hogyan tesz képessé minket arra, hogy érdekes és igaz tényeket ismerjünk meg a világról. A kémia egyik legfontosabb mérési eljárása a kvalitatív analízis, melynek során a vizsgált rendszer mivoltát standard reagensekkel tesztelik. Az eljárás pontossága nagyságrendeket javult, amikor a színképelemzés átvette a kémiai reakciók módszertani szerepét. Még tovább mehetünk, ha a rendszert monokromatikus részecskenyalábbal helyettesítjük. A részecskefizika valóban ezt a technikát alkalmazza. Tekintsünk alacsonyenergiájú kísérleteket, melyekben a nyaláb mérőberendezéssel van összeköttetésben, és így megállapíthatjuk a részecskék tulajdonságait. Az figyelhető meg, hogy a rendszer mibenlétének tesztje a kvalitatív analízis során javul, ha a kémiai reakciót fizikai folyamattal váltjuk fel, például egy periodikus szerkezettel kölcsönható nyalábbal, vagy egy mágneses mező konfigurációval. Egy másik lényeges jellegzetesség, hogy nem számít, ha például az impulzus esetén a tesztelési eljárás statisztikus, hiszen minket a diffrakció előtti impulzus érdekel, míg Heisenberg szerint a bizonytalansági elv akkor veendő figyelembe, ha valaki a pályán a diffrakció utáni impulzust szeretné meghatározni. Mindazonáltal a nyalábkísérletek elmélete megragadt egy bizonyos állapotban, amennyiben a mérés fejlődését tekintjük. A jelenlegi gyakorlatban a részecskék azonosítása ugyanannyira fenomenologikus, mint a kémiai analízis. Eredményeképpen meg tudjuk nevezni a kérdéses részecskét, vagyis azonosítani tudjuk a fenomenológiai paraméterek alapján, mint például a töltés, a spin, a leptonszám, vagy a íz. Ezek az entitások csupán reaktivitásuk alapján vannak definiálva. Például a "íz" definíciója hasonlít az izomérek múlt századi meghatározásához, amikor a kémikusok nem hittek az atomokban, és még nem a molekuláris geometriájuk alapján azonosították az izoméreket, hanem különböző reaktivitásuk szerint. Itt hiányzik a fizikus hozzájárulása a fenomenológiai részecskeparaméterek és a belső dinamika összekapcsolásához. Ilyesmit nem szolgáltathat egy pontrészecskéken alapuló elmélet, hiszen azoknak definíció szerint nincs belső dinamikájuk. A kiút ebből az lehet, ha úgy tekintjük az eddig elmondottakat, mint egy "harmadik kapcsolódási pont" empirikus oldalát, és így a fenomenológiát lefordítjuk a szabatos formalizmus nyelvére.

Az első lépést ebben az irányban Tisza tette meg 1989-ben, [6] amikor a (3) formulában szereplő entitások hullám- és spintulajdonságait használta a kvantumformalizmus alapjainak megteremtésére, és az állapotvektort belső áramok szerint értelmezte.

Ma is azt hiszem, hogy annak a cikknek az érvei meggyőzőek, kivéve az utolsó bekezdést, mely túlegyszerűsíti a feltételezett kiterjesztést más problémákra. Ám a cikk módszertani újdonsága nem volt értelmezhető a standard kanonikus kontextusban. Jelenlegi írásomban megkíséreltem episztemológiai alapot teremteni a hiányosság bepótlásához.

 

Irodalom

1. JOHN HORGAN: The End of Science - Addison-Wesley,1996.
2. J. RENN: Einstein’s Controversy with Drude and the Origin of Statistical Mechanics - MPIWG, 1997.
3. L. TISZA: Shimony Festschrift, 1996
4. AUGUSTE COMTE: Oeuvres - 2. kötet, Párizs, 1835, 2. Oldal
5. E. SIE, A. WHITTAKER: History of the Theories of Aether and Electricity - Thomas Nelson, London, 1951.
6. L. TISZA: Phys. Rev. A40(1989) 6781

______________________________

1 Zavaró körülményként adódott abban az időben, hogy a kvantumeffektusok által dominált rövid hullámhosszú tartományt a Wien-törvény sikeresen magyarázta. Az 1900-as esztendő újdonsága az volt, hogy a kísérleteket kiterjesztette a hosszú hullámhosszú tartományra is, ahol a klasszikus ekvipartíción alapuló Rayleigh-Jeans-törvény kísérleti támogatást nyert.