Saturday, December 8, 2007
Vor 20 Jahren
Es ist zwanzig Jahre her, dass Daniel Greenberger aus New York als Fulbright Gastprofessor bei mir am Atominstitut in Wien war. Als wir nachdachten, was wir gemeinsam untersuchen könnten, ist uns aufgefallen, dass alle Leute bis dahin nur Verschränkung von 2 Teilchen untersucht hatten. Wir sahen uns darauf Verschränkung von 4 Teilchen an (war für uns leichter vostellbar, wie man die macht, als drei Teilchen). Wir entdeckten eine grosse Überraschung: Es gibt da einen Widerspruch mit einem klassischen Bild (lokal-realistisch) nicht nur für die statistischen Vorhersagen der Quantenphysik, wie es beim Bellschen Theorem der Fall ist. Die entsprechende Arbeit brachten wir erst zwei Jahre später heraus. Das war eine Präsentation auf einer Konferenz. Um diese Publikation allgemein zugänglich zu machen, hab ich sie diese Woche ins Internet gestellt. Rückblickend war das die erste Arbeit überhaupt, die sich mit verschränkten Mehrteilchenzuständen beschäftigt. Die sind heute ein zentrales Konzept in vielen Protokollen der Quanteninformatik bis hin zum Quantencomputer. Davon hatten wir damals aber noch keine Vorstellung, war Zufall - wie so oft in der Grundlagenforschung ...
Subscribe to:
Post Comments (Atom)
21 comments:
Und in 20 Jahren .. werden wohl alle Computer Quantencomputer sein, allein schon deswegen weil bis dahin die Grenze von Moore's Gesetz erreicht sein wird, und somit die Schaltelemente Quanteneffekte zeigen werden.
Aber davon haben wir heute wohl ebenfalls noch keine Vorstellung!
Bin noch am Lesen und Denken. Mir fiel nur gerade ein: Die FAZ hat John Bell mal in der Überschrift zu einem Artikel über ihn „Korrespondent der Nichtlokalberichterstattung“ genannt.
@andreas: es wird sicher so sein, dass klassische Computer an die Grenze stossen werden, wo ein Bit von einem Atom oder Elektron getragen wird. Meine Meinung dazu ist, dass die Industrie wegen der Stabilität der Information möglichst lange versuchen wird, auch solche Computer als klassische Maschinen zu betreiben, eben mit Einzelteilchen. Irgendwann wird auch das dann überwunden werden
@andrea: wissen Sie noch, wann das etwa war?
@ Zeilinger
Ja, sogar ganz genau: am 29.März 2005. Ich habe nämlich den Artikel sowohl in Papierform mit Datum verziert als auch in „gescannter“ Form. Er erschien wohl anläßlich des Einstein-Jahres; der Untertitel lautete: „Wie J. S. Bell die Quantenmechanik noch seltsamer machte, als sie schon war.“
Nebenbei habe ich auch noch einen (fast) genau heute vor sieben Jahren ebendort erschienenen Artikel: „Ich dachte mir nicht viel dabei“. Max Planck und die Geburt der Quantenphysik vor hundert Jahren. FAZ, 9.12.2000 :-)
@andrea. können Sie mir diese Artikel bitte elektronisch zusenden? anton.zeilinger(at)univie.ac.at
Vielen Dank
was mich interessiert: warum dauerts 20 jahre bis die wissenschaft das internet für sich entdeckt?
-zurpolitik.com
@zeilinger: Meine Meinung dazu ist, dass die Industrie wegen der Stabilität der Information möglichst lange versuchen wird, auch solche Computer als klassische Maschinen zu betreiben, eben mit Einzelteilchen. Irgendwann wird auch das dann überwunden werden.
Meine Meinung dazu ist, dass es einige Jahre "Parallelwelten" von klassischen und Quantencomputern geben wird. Gewisse Klassen von Applikationen werden früher auf Quantenrechnern portiert werden, vor allem solche die schon jetzt den Gebrauch von sehr teuren Supercomputern erfordern. Für die grosse Masse der Anwendungen aber wird es jedoch lange dauern (Trägheitsgesetz der Portierung). Genauso wie nicht jede Klasse von Applikationen automatisch auf Parallelrechner schneller läuft, wird nicht jede Anwendung automatisch von Quantencomputern profitieren können. Was bringt schon Microsoft Office auf Quantenrechnern?
Denkbar sind auch Rechnerarchitekturen, die auf Knopfdruck - also durch gezielten Entzug von Information vermöge einer kontrollierten Messung - zwischen Quantenzustand und klassischem Zustand wechseln können, sowie Quantencomputer die klassische Computer emulieren können. Hierzu sind natürlich schon die aktuellen Forschungen auf dem Gebiet zum besseren Verständnis von Dekohärenz relevant.
Ich meinem Beruf sehe ich täglich viele Businesspläne und bin mit einigen Startups in diesem Bereich einigermassen vertraut. Aufgrund dieser Information gehe ich zur Zeit davon aus, dass erste Prototypen von Quantencomputer schon in den nächsten fünf bis zehn Jahren zumindest demonstrierbar sein werden. Diese werden allerdings noch mit erheblichen Aufwand betrieben werden (zB Kühlung auf extrem tiefe Temperaturen) oder nur ganz spezielle Aufgaben lösen können oder wirtschaftlich noch nicht sinnvoll sein. Technisch zuverlässige und ökonomisch vertretbare Rechner sehe ich allerdings erst in zehn bis zwanzig Jahren. Ich lasse mich allerdings gerne eines Besseren belehren...
@andreas:
Deine Beschreibung klingt mehr nach USA, während AZ's mehr nach europäischer Industrie klingt.
@colorspace: USA oder Europa .. ist doch vollkommen egal. Heute denkt man nicht mehr so geographisch definiert.
Ist es nicht eine Wohltat dass mit den modernen Kommunikations- und Reisemöglichkeiten wieder vermehrt globale Zusammenarbeit gefördert wird? Und genau diese bringt ja oft die besten Resultate, siehe QM am Anfang des 20. Jahrhunderts. Es muss für die Pioniere der QM ein schwerer Schock gewesen sein, dass der damals herrschende rege und äusserst fruchtbare internationale Austausch plötzlich durch Kriegszeiten erheblich behindert wurde, und schliesslich zum bedauernswerten Zusammenbruch vieler internationaler Beziehungen führte.
PS: Aber es ist richtig, meine Sicht ist etwas USA lastig, da seit 15 Jahren hauptsächlich dort tätig. Aber das heisst nicht dass es nicht auch in Europa ausgezeichnete Arbeit auf diesem Gebiet gibt. Vor allem im Grundlagenbereich. Aber die unternehmerischen Akzenkte werden halt nun mal zu einem Guten Teil im Silicon Valley und Boston gesetzt. Fact of life.
@ Internet Information
Mir scheint, daß solche Information im Internet zur Verfügung zu stellen, außerordentlich hilfreich ist. Zumindest auf vielen Wiki Seiten gibt noch der lokale Realismus den Ton an, oder die Seiten scheinen 10 Jahre alt zu sein, oder noch älter, obwohl sie ständig editiert werden. In den USA ist Wiki eine beliebte Informationsquelle für wissenschafts-interessierte Laien (oft in technischen Berufen, aber keine Fachexperten). Für diese Gruppe ist der Artikel im OP vielleicht gerade noch verdaubar, aber sehr viele wissen kaum, worin denn nun eigentlich die Korrelation besteht, selbst in den Fällen, in denen diese Korrelation keine komplizierte statistische Analyse erfordert. Denn so ein Beweis mit Allgemeingültgikeit gibt da wenig Aufschluß, obwohl der wahrscheinlich für Physiker sehr gut ist.
Die einzigen guten Informationsquellen scheinen hier "Einstein's Spuk" und "Einstein's Schleier" zu sein, und diese gibt es nicht auf Englisch, oder zumindest nicht auf Amazon. Und selbst diese könnten vielleicht manches in einem zusammenfassenden Kapitel auf einen noch einfacheren Nenner bringen, der z.B. auf einfache Weise sagt, was für ein Art von Information denn nun eigentlich übertragen wird, und woran man im Experiment sehen kann, daß diese Information nicht von den Partikeln mitgebracht wurde. (Ich glaub für Teleportation ist das ganz gut gelungen, ich habe noch nicht alles gelesen, aber für GHZ Entanglement scheint man sich da durch einiges durchbeißen zu müssen.)
Im Zusammenhang mit der Diskussion um Nicht-lokalität ist mir z.B. auch nicht klar, ob die Many-Worlds-Interpretation da eine alternative Erklärung hat, so wie für den Quanten-Zufall, oder bloß einfach davon ausgeht, daß dies Information auf dem klassischen Kanal Huckepack mitkommt, und da anscheinend noch niemand weiß, daß der klassische Kanal im Prinzip auch aus einem handgeschreibenen Brief bestehen kann. :) Oder bin ich da noch nicht richtig informiert?
@ local realism
Daß mit dem lokalen Relaismus sollte ich vielleicht etwas anders ausdrücken: Es wird zwar gesagt daß der lokale Realismus widerlegt ist, aber im gleichen Atemzug darauf hingewiesen daß keine klassische Information schneller als mit Lichtgeschwindigkeit übertragen wird. Zusammen mit anderen zu knappen Darstellungen, z.B. der von Entanglement-swapping, wird dadurch dem Laien kaum klar, daß hier überhapt etwas interessantes in nicht-lokaler Weise, d. h. schneller als mit Lichtgeschwindigkeit, passiert.
Es klingt also für den Laien so, oder fast so, als ob die nicht-lokale Fernwirkung sozusagen bloß auf dem Papier existiert, und keine praktische Realität hat, ähnlich dem "group velocity" Argument bei der Tunnelung.
Denn wenn keine Information übertragen wird, die der "causality" widersprechen würde, und auch keine Materie, was wird denn dann übertragen? Das wird dem Laien nicht erklärt, und damit nimmt dieser an, daß eigentlich gar nichts Reales passiert, sondern es sich vielleicht (fast) nur um Spitzfindigkeiten im Formelwerk handelt, oder bloß um eine Methode, die einer klassischen Kommunikation zusätzliche Möglichkeiten verschafft, ohne das klar wird, daß hier auch ohne klassische Kommunikation bereits etwas wesentliches passiert ist.
Entschuldigung, wenn das etwas lang geraten ist...
@andreas
@Ist es nicht eine Wohltat dass mit den modernen Kommunikations- und Reisemöglichkeiten wieder vermehrt globale Zusammenarbeit gefördert wird?
Das Traurige ist, dass die Menschen in diesen Maßstäben nicht denken können (siehe USA & Bali-Konferenz). Die Globalisierung gibt uns nur die Möglichkeit, die lokale Beschränktheit unseres Denkens aufzuzeigen.
@Quantencomputer
Klingt zwar ganz nett, aber es wird sie so nicht geben. Erstens, derzeit mangelt es sowieso noch an interessanten Aufgabenstellungen für diese Art des Rechnens. Zweitens, für In-/ und Output wird man konventionelle Technologie verwenden müssen (siehe "Towards a quantum information technology industry - Munro, Spiller")
@Quanten-Technologie
Also derzeit lacht dich jeder Personalberater aus, wenn du ihm erzählst, dass du dich mit Aspekten der "Quantum technology" beschäftigt hast...
Brave new world
In diesem Sinne
Euer Gernot
@ Quantencomputer
Es gab vor kurzem die Nachricht, daß ein QUantencomputer gebaut wurde, der erfolgreich 15 in sein Primfaktoren zerlegen konnte. Immerhin.
@ Nebenbei:
Hab' versucht folgendes in den Büchern ausfindig zu machen, vielleicht weiß ja hier jemand die Antwort (der Zeit hat):
Kann man GHZ Zustände teleportieren und/oder entanglement-swappen ?
Kann das der Teleportation zugrunde liegende Partikelpaar im Prinzip wiederverwendet werden?
@Zeilinger: GHZ und lokaler Realismus
Ich würde hier gerne ein Beispiel dafür geben, wie die Darstellung von der Widerlegung des lokalen Realismus durch GHZ Experimente für den Laien oft wenig überzeugend ist:
Es wird gesagt, zumindest klingt dies so für Uneingeweihte wie mich, dass das quantenmechanische Modell das genaue Gegenteil dessen voraussagt, was jedes denkbare lokal-realistische Model vorraussagen würde. Horizontale Polarisation statt vertikaler, und vertikale statt horizontaler. Der Laie (das nim ich) denkt hier: Na und? Man negiert einfach die Voraussage, und schon hat man ein Model, dass lediglich aufgrund lokal realistisch vorhandener Informationen das Verhalten des Partikels vorhersagen kann. Denn es wird hier nicht ersichtlich, inwieweit nicht-lokale Variable einen Einfluß auf die letzte Messung haben. Es scheint sich um eine Konstante zu handeln, die durch eine simple Negation ersetzt werden kann.
Und ich sage dies, obwohl ich eigentlich von der Nicht-lokalität schon so gut wie überzeugt bin.
@Also derzeit lacht dich jeder Personalberater aus, wenn du ihm erzählst, dass du dich mit Aspekten der "Quantum technology" beschäftigt hast...
Na, da bin ich aber froh, nicht mit den von Ihnen erwähnten Personalberatern vorlieb nehmen zu müssen. Hier im Silicon Valley jedenfalls wimmelt es nur so von jungen Firmen, die alle in irgendeiner Weise das Ziel verfolgen, Quantencomputer zu bauen oder dazu einen Beitrag zu leisten. Niemand lacht darüber.
@Silicon Valley
*Ja* das ist leider in den USA...
@den von Ihnen erwähnten Personalberatern
*Gut*, der sitzt ja auch in Wien...
[Off-Topic]
Momentan verstehe ich die Welt nicht. Als theoretischer Physiker wird man offenbar nur in der Automobil-Branche gebraucht. Demgemäß werde ich nun -wohl oder übel- den ersten Nebelscheinwerfer mit verschränkten Photonen entwickeln.
In diesem Sinne
Euer Gernot
@Zeilinger, lokaler Realismus
Im Gegensatz zu meiner vorangegangenen Message möchte ich nun beschreiben, was für einen Laien wesentlich überzeugender wäre. Allerdings kann es durchaus sein, dass so etwas noch nicht einmal in der Theorie möglich ist. Dann allerdings wäre es sehr interessant zu wissen, warum nicht.
Vielleicht beruht dies auf einem falschen Verständnis der Situation, aber man könnte hoffen, dass es mittels Entanglement-Swapping möglich ist, im letzten Moment zu entscheiden, ob ein Partikel mit anderen Partikeln entweder auf "normale" Weise, oder auf "GHZ" Weise verschränkt ist. Dann würde er sich je nachdem so verhalten, wie dies lokale Modelle vorhersagen, oder genau entgegengesetzt. Dies benutzt man dann als Schalter, um ein Bit je nach seinem Wert entweder so oder so zu übertragen.
Man könnte also argumentieren, dass auf diese Weise nicht der Zufallsschlüssel, sondern ein echtes, wenn auch mit einer Zufallsszahl verschlüsseltes, Signal über den Quanten-kanal übertragen wird, während über den klassischen Kanal nun der Zufallsschlüssel kommt. (Bei der Quanten-Teleportation scheint ja so eine Argumentation nicht gelungen zu sein.)
Wenn so etwas, allgemein gesprochen, möglich wäre, und man logisch wirklich zeigen kann, dass nun das Signal über den Quantenkanal kommt, hätte man eine Signalübertragung mit Überlichtgeschwindigkeit, und damit meiner Meinung nach den Nobelpreis verdient.
Wenn nicht, wäre es wie gesagt äußerst interessant zu erfahren, was dem entgegen sprechen würde.
@Zeilinger, Entanglement im Internet
Um nun meinerseits auf einen einfachen Nenner zu kommen:
Die theoretischen Schwierigkeiten dabei, auch weit-hergeholte lokal-realistische Modelle zu widerlegen, haben vielerorts zu dem Eindruck geführt, das die Übertragung (oder sollte man sagen: Synchronisierung) z.B. der Polarisation eines Photons hauptsächlich ein klassischer Vorgang ist, und nur ein paar Zufälligkeiten dabei auf der Nicht-Lokalität beruhen, sozusagen nur der kleine statistische Teil, der erst durch Bell/Aspect bewiesen wurde. So, als ob in den Fällen, in denen das Meßergebnis klassisch erklärt werden könnte, der Effekt auch klassisch ablaufen würde, d.h., mit Lichtgeschwindigkeit.
Nur so kann ich mir erklären, daß immer noch so oft geglaubt wird, dass es keine Informationsübertragung mit Über-Lichtgeschwindigkeit geben kann. Ist die Übertragung (oder Synchronisierung) der Polarisationsmessung denn keine Informationsübertragung? Wenn nicht "Information" nach irgendeiner Definition von "Information", dann aber schon eine physikalische Wirkung. Sie scheint nur deswegen nicht der relativistischen "causality" zu widersprechen, formal gesehen, weil die Ereignisse chronologisch symmetrisch sind. Dazu habe ich jedoch bis jetzt noch nirgendwo gelesen, dass dies notwendigerweise für alle Quanteneffekte, z.B. Tunneling, gelten müsste.
@ FAZ-Artikel
Hierauf hätte ich lieber verzichtet, aber es hat wohl wieder nicht anders sein sollen, wollen. Ich hatte die Artikel am 11.12. gesendet und hätte wenigstens noch gern gewußt, ob sie richtig angekommen sind.
Könnten also die verschränkten Photonen mit einander sogar mit Überlichtgeschwindigkeit
kommunizieren?
Bell vermutete, dass das Verhalten der Photonen eben doch nicht zufällig sein kann und
durch noch unbekannte, verborgene Eigenschaften der Teilchen hervorgerufen worden sind,
die schon bei der Trennung der beiden verschränkter Photonen festlegt wurden.
Die Quantenmechaniker eine übermächtige Gruppe innerhalb der Physik versucht uns einzureden, dass die „Bell'sche Ungleichung“ verletzt ist.
Hier eine Lösung die durch ihre Einfachheit verblüfft.
http://www.cwirko.de/Das%20einheitliche%20Konzept%20der%20Physik.pdf
Post a Comment