Artikel

5.2: Stetige reellwertige Funktion von n Variablen - Mathematik


5.2: Stetige reellwertige Funktion von n Variablen - Mathematik

Kontinuierliche Zuordnung

Eine stetige Abbildung ϕ: (− , T1) → V 1 heißt a negative Fortsetzung der Lösung S(, t)v0 vorausgesetzt, erfüllt: (1) ϕ(0) = v0, (2) T1 = T0(, v0) und (3) für alle τ ∈ (−, T1), ϕ erfüllt

EIN globale Lösung durch den Punkt (, v0) ∈ m ist eine stetige Abbildung ϕ: ℝ → V 1 mit: (1) ϕ(0) = v0 und (2) ϕ erfüllt

Es ist wichtig zu beachten, dass bei einer negativen Fortsetzung einer Lösung S(, t)v0 existiert, es braucht nicht einzigartig sein. Dieser Mangel an Eindeutigkeit ist eine Hauptkomplikation, die in unendlichdimensionalen dynamischen Systemen auftritt, wie der Dynamik, die durch Lösungen partieller Differentialgleichungen erzeugt wird. Dennoch ist es zweckmäßig, hier eine Notationskonvention zu übernehmen. Für τ ≤ 0 setzen wir S(, τ)v0:= ϕ(τ), wobei ϕ eine negative Fortsetzung von . ist S(, t)v0. Auf diese Weise lautet (4.16)

Da eine globale Lösung S(, τ)ϕ(0) = S(, τ)v0 = ϕ(τ) ist für alle τ ∈ ℝ definiert, es erfüllt:


Antimatroid, The

Einführung

Dies ist ein kurzer Artikel, der das erwartete Maximum und Minimum von reellwertigen kontinuierlichen Zufallsvariablen für ein Projekt untersucht, an dem ich arbeite. Dieses Papier wird etwas formeller sein als einige meiner früheren Schriften, aber es sollte leicht zu lesen sein, beginnend mit einigen erforderlichen Definitionen, Problemstellungen, allgemeinen Lösungen und spezifischen Ergebnissen für eine kleine Handvoll kontinuierlicher Wahrscheinlichkeitsverteilungen.

Definitionen

Definition (1) : Bei gegebenem Wahrscheinlichkeitsraum, , bestehend aus einer Menge, die den Stichprobenraum repräsentiert, , a , , und einem Lebesgue-Maß, , gelten die folgenden Eigenschaften:

Definition (2) : Gegeben eine reellwertige stetige Zufallsvariable, so dass das Ereignis, das die Zufallsvariable einen festen Wert annimmt, , das Ereignis ist, das durch die Wahrscheinlichkeitsverteilungsfunktion gemessen wird. Ebenso ist das Ereignis, dass die Zufallsvariable einen Wertebereich annimmt, der kleiner als ein fester Wert ist, das Ereignis, das von der kumulativen Verteilungsfunktion gemessen wird. Per Definition gelten die folgenden Eigenschaften:

Definition (3) : Gegeben eine zweite reellwertige kontinuierliche Zufallsvariable, , Das gemeinsame Ereignis wird durch die gemeinsame Wahrscheinlichkeitsverteilung gemessen. Wenn und statistisch unabhängig sind, dann .

Definition (4) : Bei einer reellwertigen stetigen Zufallsvariablen ist der Erwartungswert .

Definition (5) : (Gesetz des unbewussten Statistikers) Gegeben eine reellwertige stetige Zufallsvariable, , und eine Funktion, dann ist auch eine reellwertige stetige Zufallsvariable und ihr Erwartungswert ist das Integral konvergiert. Gegeben zwei reellwertige stetige Zufallsvariablen , und eine Funktion, , ist dann auch eine reellwertige stetige Zufallsvariable und ihr Erwartungswert ist . Unter der Unabhängigkeitsannahme von Definition (3) wird der Erwartungswert .

Bemerkung (1) : Für den Rest dieser Arbeit wird angenommen, dass alle reellwertigen stetigen Zufallsvariablen unabhängig sind.

Problemstellung

Satz (1) : Bei zwei reellwertigen stetigen Zufallsvariablen ist der Erwartungswert des Minimums der beiden Variablen .

Lemma (1) : Bei zwei reellwertigen stetigen Zufallsvariablen ist der Erwartungswert des Maximums der beiden Variablen


Bestimmen Sie beliebige Unstetigkeitsstellen für die Funktion $f(x, y) = an x + sin y$ .

Wir bemerken, dass $ an x$ undefiniert ist, wenn $x = (2k-1)frac<2>$ wobei $k in mathbb$ , also ist $f$ unstetig für $(x,y) = left ([2k-1]frac<2>, y ight )$ wobei $k in mathbb$. Der Graph von $f(x,y) = an x + sin y$ ist unten angegeben.


Plurisubharmonische Funktion


Eine reellwertige Funktion $ u = u( z) $, $ - infty leq u < + infty $, von $ n $ komplexen Variablen $ z = ( z _ <1>dots z _ ) $ in einem Gebiet $ D $ des komplexen Raums $ mathbf C ^ $, $ n geq 1 $, das folgende Bedingungen erfüllt: 1) $ u( z) $ ist überall in $ D $ obere halbstetig (vgl. halbstetige Funktion) und 2) $ u( z ^ < 0>+ lambda a) $ ist eine subharmonische Funktion der Variablen $ lambda in mathbf C $ in jeder Zusammenhangskomponente der offenen Menge $ < : + lambda a in D > > $ für beliebige Fixpunkte $ z ^ <0>in D $, $ a in mathbf C ^ $. Eine Funktion $ v( z) $ heißt plurisuperharmonische Funktion, wenn $ - v( z) $ plurisubharmonisch ist. Die plurisubharmonischen Funktionen für $ n > 1 $ bilden eine echte Unterklasse der Klasse der subharmonischen Funktionen, während diese beiden Klassen für $ n = 1 $ zusammenfallen. Die wichtigsten Beispiele für plurisubharmonische Funktionen sind $ mathop < m ln>| f(z) | $, $ mathop < m ln>^ <+>| f(z) | $, $ | f(z) | ^

$, $ p geq 0 $, wobei $ f( z) $ eine holomorphe Funktion in $ D $ ist.

Für eine obere halbstetige Funktion $ u( z) $, $ u( z) < + infty $, um plurisubharmonisch in einem Gebiet $ D subset mathbf C ^ . zu sein $ ist es notwendig und ausreichend, dass für jedes feste $ z in D $ $ a in mathbf C ^ $, $ | ein | = 1 $, existiert eine Zahl $ delta = delta ( z, a) > 0 $ derart, dass für $ 0 < r < delta $ folgende Ungleichung gilt:

$ u( z) leq frac<1> <2 pi >intlimits _ < 0 >^ < <2 >pi > u( z + re ^ a) dphi. $

Das folgende Kriterium ist für Funktionen $ u( z) $ der Klasse $ C ^ <2>( D) $ bequemer: $ u( z) $ ist genau dann eine plurisubharmonische Funktion in $ D $, wenn die hermitesche Form (die Hessisch von $ u $, vgl. Hessisch einer Funktion)

ist an jedem Punkt $ z in D $ positiv semidefinit.

Für plurisubharmonische Funktionen gilt zusätzlich zu den allgemeinen Eigenschaften subharmonischer Funktionen: a) $ u( z) $ ist plurisubharmonische in einem Gebiet $ D $ genau dann, wenn $ u( z) $ eine plurisubharmonische Funktion in einer Umgebung ist jedes Punktes $ z in D $ b) eine Linearkombination von plurisubharmonischen Funktionen mit positiven Koeffizienten ist plurisubharmonisch c) der Grenzwert einer gleichförmig konvergenten oder monoton abnehmenden Folge plurisubharmonischer Funktionen ist plurisubharmonisch d) $ u( z) $ ist a plurisubharmonische Funktion in einem Bereich $ D $ genau dann, wenn sie als Grenzwert einer abnehmenden Folge von plurisubharmonischen Funktionen dargestellt werden kann $ < u _ (z) > _ 1 ^ infty $ der Klassen $ C ^ infty ( D _ ) $ bzw. wobei $ D _ $ sind Domänen mit $ D _ subset overline <> _ Teilmenge D_ 1 $ und $ cup _ 1 ^ infty D_ = D $ e) für jeden Punkt $ z ^ <0>in D $ der Mittelwert

$ J ( z ^ <0>, r u) = frac<1> > intlimits_ <| ein | = 1 >u( z ^ <0>+ ra) da $

über einer Kugel des Radius $ r $, wobei $ sigma _ <2n>= 2 pi ^ /( n- 1)! $ ist die Fläche der Einheitskugel in $ mathbf R ^ <2n>$, ist eine wachsende Funktion von $ r $, die konvex bezüglich $ mathop < m ln>r $ auf der Strecke $ 0 leq . ist r leq R $, wenn die Kugel

in $ D $ liegt, wobei $ u( z ^ <0>) leq J( z ^ <0>, ru) $ f) eine plurisubharmonische Funktion unter holomorphen Abbildungen plurisubharmonisch bleibt g) falls $ u( z) $ ist eine stetige plurisubharmonische Funktion in einem Gebiet $ D $, wenn $ E $ eine abgeschlossene zusammenhängende analytische Teilmenge von $ D $ ist ( vgl. Analytische Menge) und wenn die Einschränkung $ u mid _ $ erreicht ein Maximum auf $ E $, dann ist $ u(z) = extrm < const >$ auf $ E $.

Die folgenden eigentlichen Unterklassen der Klasse der plurisubharmonischen Funktionen sind auch für Anwendungen von Bedeutung. Eine Funktion $ u( z) $ heißt streng plurisubharmonisch, wenn es eine konvex wachsende Funktion $ phi ( t) $ gibt, $ - infty < t < + infty $,

so dass $ phi ^ <->1 ( u( z)) $ eine plurisubharmonische Funktion ist. Insbesondere für $ phi ( t) = e ^ $ erhält man logarithmisch-plurisubharmonische Funktionen.

Die Klasse der plurisubharmonischen Funktionen und die obigen Unterklassen sind wichtig für die Beschreibung verschiedener Merkmale holomorpher Funktionen und Domänen im komplexen Raum $ mathbf C ^ $, sowie in allgemeineren analytischen Räumen [1]–[4], [7]. Zum Beispiel ist die Klasse der Hartogs-Funktionen $ H( D) $ definiert als die kleinste Klasse reellwertiger Funktionen in $ D $, die alle Funktionen $ mathop < m ln>| . enthält f(z) | $, wobei $ f( z) $ eine holomorphe Funktion in $ D $ ist und unter den folgenden Operationen abgeschlossen ist:

$ alpha $) $ u _ <1>, u _ <2>in H( D) $, $ lambda _ <1>, lambda _ <2>geq 0 $ implizieren $ lambda _ <1 >u_<1>+ lambda_<2>u_<2>in H(D) $

$ eta $) $ u _ in H( D) $, $ u _ leq M( D _ <1>) $ für jede Domäne $ D _ <1>subset overline _ <1>subset D $, $ k = 1, 2 dots $ implizieren $ sup < (z) > : > in H( D) $

$ gamma $) $ u _ in H( D) $, $ u _ geq u _ 1 $, $ k = 1, 2 dots $ implizieren $ limlimits_ du _ ( z) in H( D) $

$ delta $) $ u in H( D) $, $ z in D $ implizieren $ limlimits _ ightarrow z > sup u( z _ <1>) in H( D) $

$ epsilon $) $ u in H( D _ <1>) $ für jede Unterdomäne $ D _ <1>subset overline _ <1>subset D $ impliziert $ u in H( D) $.

Obere halbkontinuierliche Hartogs-Funktionen sind plurisubharmonisch, aber nicht jede plurisubharmonische Funktion ist eine Hartogs-Funktion. Wenn $ D $ ein Holomorphiegebiet ist, fallen die Klassen der oberen halbkontinuierlichen Hartogs-Funktionen und plurisubharmonischen Funktionen in $ D $ zusammen [5], [6].

Verweise

[1] V.S. Vladimirov, "Methoden der Theorie vieler komplexer Variablen", M.I.T. (1966) (Übersetzt aus dem Russischen)
[2] RC Gunning, H. Rossi, "Analytische Funktionen mehrerer komplexer Variablen", Prentice-Hall (1965)
[3] P. Lelong, "Fonctions plurisousharmonique mesures de Radon associées. Applications aux fonctions analytiques", Colloque sur les fonctions de plusieurs variables, Brüssel 1953 , G. Thone &. Masson (1953) S. 21–40
[4] H.J. Bremermann, "Komplexe Konvexität" Übers. Amer. Mathematik. Soz. , 82 (1956) S. 17–51
[5] H.J. Bremermann, "Zur Vermutung der Äquivalenz der plurisubharmonischen Funktionen und der Hartogs-Funktionen" Mathematik. Ann. , 131 (1956) S. 76–86
[6] H.J. Bremermann, "Anmerkung zu plurisubharmonischen und Hartogs-Funktionen" Proz. Amer. Mathematik. Soz. , 7 (1956) S. 771–775
[7] E. D. Solomentsev, "Harmonische und subharmonische Funktionen und ihre Verallgemeinerungen" Itogi Nauk. Matte. Anal. Teor. Veroyatnost. Regulirovanie (1964) S. 83–100 (auf Russisch)

Bemerkungen

Eine Funktion $ u in C ^ <2>( D) $ ist genau dann streng plurisubharmonisch, wenn das komplexe Hessische $ H(( zu) a, overline ) $ eine positiv-definite hermitesche Form auf $ mathbf C ist ^ $.

Das Hessische hat auch eine Interpretation für beliebige plurisubharmonische Funktionen $ u $. Für jedes $ a in mathbf C ^ $, $ H(( z u) a, overline ) $ kann als Verteilung (vgl. Verallgemeinerte Funktion) angesehen werden, die positiv ist und somit durch ein Maß dargestellt werden kann. Dies steht in völliger Analogie zur Interpretation des Laplace-Operators der subharmonischen Funktionen.

Allerdings führt man in dieser Einstellung meist Ströme ein, vgl. [a2]. Sei $ C _ <0>^ infty ( p, q) ( D) $ den Raum der kompakt gestützten Differentialformen $ phi = sum _ <| ich| = p,| J| = q >phi_ dz _ keil d overline <> _ $ auf $ D $ Grad $ p $ in $ < dz _ <1>dots dz _ > $ und Grad $ q $ in $ < d overline _ <1>dots d overline _ > $( vgl. Differentialform). Die äußeren Differentialoperatoren $ partial $, $ overline partial $ und $ d $ sind definiert durch:

$ d phi = partial phi + overline partial phi . $

Die Formen im Kern von $ d $ heißen geschlossen, die Formen im Image von $ d $ heißen exakt. Da $ dd = 0 $ ist, ist die Menge der exakten Formen in der Menge der geschlossenen Formen enthalten. Eine $ ( p, p) $-Form heißt positiv vom Grad $ p $ falls für jedes System $ a _ <1>dots a _ p $ von $ ( 1, 0) $- bildet $ a _ = summe _ 1 ^ ein _ dz _ $, $ a_ in mathbf C $, die $ ( n, n) $- Form $ phi wedge ia _ <1>wedge overline <> _ <1>wedge dots wedge ia _ p keil overline <> _ p = g dV $, mit $ g geq 0 $ und $ dV $ dem euklidischen Volumenelement.

Sei $ p ^ prime = n - p $, $ q ^ prime = n - q $. A $ ( p ^ prime , q ^ prime ) $- aktuelles $ t $ auf $ D $ ist eine Linearform $ t $ auf $ C _ <0>^ infty ( p, q)( D) $ mit die Eigenschaft, dass es zu jeder kompakten Menge $ K subset D $ Konstanten $ C, k $ gibt, so dass $ | langle t, phi angle | < C sup _ | D^alphaphi_ (z) | $ für $ z in K $ und $ | alpha | leq k $, wobei $ D ^ alpha = partial ^ <| alpha | >/ ( partial z _ <1>^ > <> dots partial overline <> _ ^ > ) $. Die Operatoren $ d , partial , overline partial $ werden durch Dualität erweitert, zB wenn $ t $ ein $ ( p ^ prime , q ^ prime ) $- aktuell ist, dann $ langle dt, phi angle = (- 1) ^

langle t, d phi angle $. Geschlossene und exakte Ströme sind wie bei Differentialformen definiert. A $ ( p ^ prime , p ^ prime ) $- Strom heißt positiv, wenn für jedes System $ a _ <1>dots a _

$ von $ ( 1, 0) $- bildet wie oben und für jedes $ phi in C _ <0>^ infty ( D) $,

A $ ( p ^ prime , q ^ prime ) $- Form $ psi $ ergibt ein $ ( p ^ prime , q ^ prime ) $- aktuelles $ t _ psi $ durch Integration: $ langle t _ psi , phi angle = int_ phi keil psi $. Eine komplexe Mannigfaltigkeit $ M subset D $ der Dimension $ p $ führt zu einem positiv abgeschlossenen $ ( p ^ prime , p ^ prime ) $- current $ [ M] $ auf $ D $, dem Strom der Integration entlang $ M $:

$ langle [ M ] , phi angle = intlimits _ < M >phi . $

Der Integrationsstrom wurde auch für analytische Varietäten $ Y $ in $ D $ definiert (vgl. Analytische Mannigfaltigkeit): Man definiert den Integrationsstrom für die Menge der regulären Punkte von $ Y $ auf $ D setminus < extrm < singuläre Punkte von >Y > $ und zeigt, dass er zu einem positiven geschlossenen Strom auf $ D $ erweitert werden kann. Eine plurisubharmonische Funktion $ h $ liegt in $ L _ < mathop< m loc>> ^ <1>$, identifiziert sich also mit einem $ ( 0, 0) $- Strom. Also ist $ i partial overline partial h $ ein $ ( 1, 1) $- Strom, der sich als positiv und abgeschlossen herausstellt. Umgekehrt hat ein positiver geschlossener $ ( 1, 1) $-Strom lokal die Form $ i partial overline partial h $. Der Integrationsstrom auf einer irreduziblen Varietät der Form $ Y = < : > $, wobei $ f $ eine holomorphe Funktion mit nicht identisch verschwindendem Gradient auf $ Y $ ist, ist gleich $ ( i / pi ) partial overline partial mathop < m log>| f | $. Siehe auch Rückstand einer analytischen Funktion und Rückstandsformular.


Differential


Der lineare Hauptteil des Inkrements einer Funktion.

1) Eine reellwertige Funktion $ f $ einer reellen Variablen $ x $ heißt an einem Punkt $ x $ differenzierbar, wenn sie in einer Umgebung dieses Punktes definiert ist und es eine Zahl $ A $ gibt, so dass Zuwachs

$ Updelta y = f ( x + Updelta x ) - f ( x) $

kann (wenn der Punkt $ x + Delta x $ in dieser Nachbarschaft liegt) geschrieben werden in der Form

$ Updelta y = A Updelta x + omega , $

wobei $ omega / Delta x ightarrow 0 $ als $ Delta x ightarrow 0 $ gilt. Hier wird $ A Delta x $ normalerweise mit $ dy $ bezeichnet und heißt das Differential von $ f $ bei $ x $. Für ein gegebenes $ x $ ist das Differential $ dy $ proportional zu $ ​​Updelta x $, also eine lineare Funktion von $ Updelta x $. Definitionsgemäß ist als $ Updelta x ightarrow 0 $ der Zusatzterm $ omega $ unendlich klein von höherer Ordnung als $ Updelta x $( und auch als $ dy $ wenn $ A eq 0 $). Aus diesem Grund ist das Differential der Hauptteil des Inkrements der Funktion.

Für eine Funktion, die an einem Punkt $ x $ differenzierbar ist, ist $ Updelta y ightarrow 0 $ falls $ Updelta x ightarrow 0 $, d. h. eine Funktion, die an einem Punkt differenzierbar ist, ist an diesem Punkt stetig. Eine Funktion $ f $ ist an einem Punkt $ x $ genau dann differenzierbar, wenn sie an dieser Stelle eine endliche Ableitung hat

Es gibt stetige Funktionen, die nicht differenzierbar sind.

Anstelle von $ dy $ kann auch die Bezeichnung $ df ( x) $ verwendet werden, und die obige Gleichung nimmt die Form an

Das Inkrement des Arguments $ Delta x $ wird dann üblicherweise mit $ dx $ bezeichnet und ist das Differential der unabhängigen Variablen. Dementsprechend kann man schreiben

Also $ f ^ < prime >( x) = dy / dx $, d.h. die Ableitung ist gleich dem Verhältnis der Differentiale $ dy $ und $ dx $. Wenn $ A eq 0 $, dann $ Delta y / dy ightarrow 1 $ als $ Delta x ightarrow 0 $, dh wenn $ A eq 0 $, dann sind $ Delta y $ und $ dy $ infinitesimal der gleichen Ordnung wie $ Updelta x ightarrow 0 $ wird diese Tatsache zusammen mit der einfachen Struktur des Differentials (dh Linearität bezüglich $ Updelta x $) oft in Näherungsrechnungen verwendet, indem angenommen wird, dass $ Updelta y approx dy $ für kleine $ Delta x $. B. $ f ( x + Delta x ) $ aus einem bekannten $ f ( x) $ berechnen wollen, wenn $ Delta x $ klein ist, wird angenommen, dass

$ f ( x + Updelta x ) approx f( x) + dy . $

Offensichtlich ist eine solche Argumentation nur dann sinnvoll, wenn es möglich ist, die Größe des damit verbundenen Fehlers abzuschätzen.

Geometrische Interpretation des Differentials. Die Tangentengleichung an den Graphen einer Funktion $ f $ an einem Punkt $ ( x _ <0>, y _ <0>) $ hat die Form $ y - y _ <0>= f ^ < prime >( x _ <0>) ( x - x _ <0>) $. Setzt man $ x = x _ <0> + Delta x $, dann ist $ y - y _ <0>= f ^ < prime >( x _ <0>) Delta x $. Die rechte Seite stellt den Wert des Differentials der Funktion $ f $ an der Stelle $ x _ <0> $ dar, die dem Wert von $ Delta x $ entspricht. Das Differential ist also identisch mit dem entsprechenden Inkrement der Ordinate der Tangente an die Kurve $ y = f ( x) $ ( vgl. das Segment $ NT $ in Abb. a). Hier ist $ omega = Delta y - dy $, d. h. der Wert von $ | omega | $ stimmt mit der Länge des Segments $ TS $ überein.

2) Die Definitionen von Differenzierbarkeit und Differential lassen sich leicht auf reellwertige Funktionen von $ n $ reellen Variablen erweitern. Im Fall $ n = 2 $ heißt also eine reellwertige Funktion an einem Punkt $ ( x , y ) $ bezüglich der beiden Variablen $ x $ und $ y $ differenzierbar, wenn sie in einer Umgebung von defined definiert ist dieser Punkt und wenn sein Gesamtinkrement

$ Updelta z = f ( x + Updelta x , y + Updelta y ) - f ( x , y ) $

$ Updelta z = A Updelta x + B Updelta y + alpha , $

wobei $ A $ und $ B $ reelle Zahlen sind, $ alpha / ho ightarrow 0 $ if $ ho ightarrow 0 $, $ ho = sqrt + Delta y ^ <2>> $ wird angenommen, dass der Punkt $ ( x + Updelta x , y + Updelta y ) $ zu der oben erwähnten Umgebung gehört (Abb. b).

Man führt die Notation ein

$ d z = d f ( x , y ) = A Delta x + B Delta y $

$ dz $ ist das gesamte Differential oder einfach das Differential der Funktion $ f $ an der Stelle $ ( x , y ) $ ( manchmal wird der Ausdruck "in Bezug auf beide Variablen x und y" hinzugefügt). Für einen gegebenen Punkt $ ( x , y ) $ ist das Differential $ dz $ eine lineare Funktion von $ Delta x $ und $ Delta y $ ist die Differenz $ alpha = Delta z - dz $ unendlich klein von einem höheren bestellen als $ ho $. In diesem Sinne ist $ dz $ der lineare Hauptteil des Inkrements $ Delta z $.

Ist $ f $ an der Stelle $ ( x , y ) $ differenzierbar, dann ist sie an dieser Stelle stetig und hat endliche partielle Ableitungen (vgl. Ableitung)

$ f _ ^ < prime >( x , y ) = A , f _ ^ < prime >( x , y ) = B $

$ d z = d f ( x , y ) = f _ ^ < prime >( x , y ) Updelta x + f_ ^ < prime >( x , y ) Delta y . $

Die Inkremente $ Delta x $ und $ Delta y $ der unabhängigen Variablen werden normalerweise wie bei einer einzelnen Variablen mit $ dy $ und $ dx $ bezeichnet. Dementsprechend kann man schreiben,

$ d z = d f ( x , y ) = f _ ^ < prime >( x , y ) d x + f _ ^ < prime >( x , y ) d y . $

Die Existenz endlicher partieller Ableitungen impliziert im Allgemeinen nicht die Differenzierbarkeit der Funktion (auch wenn sie als stetig angenommen wird).

Wenn eine Funktion $ f $ eine partielle Ableitung nach $ x $ an einem Punkt $ ( x , y ) $ hat, ist das Produkt $ f _ ^ < prime >( x , y ) dx $ heißt sein partielles Differential nach $ x $ auf die gleiche Weise, $ f _ ^ < prime >( x , y ) dy $ ist das partielle Differential nach $ y $. Wenn die Funktion differenzierbar ist, ist ihr Gesamtdifferential gleich der Summe der Teildifferentiale. Geometrisch ist das Gesamtdifferential $ df ( x _ <0>, y _ <0>) $ das Inkrement in $ z $- Richtung in der Tangentialebene an die Fläche $ z = f ( x , y ) $ am Punkt $ ( x _ <0>, y _ <0>, z _ <0>) $, wobei $ z _ <0>= f ( x _ <0>, y _ <0>) $( Abb. c ).

Ein hinreichendes Kriterium für die Differenzierbarkeit einer Funktion ist: Wenn in einer bestimmten Umgebung eines Punktes $ ( x _ <0>, y _ <0>) $ eine Funktion $ f $ eine partielle Ableitung $ f _ ^ < prime >$, das bei $ ( x _ <0>, y _ <0>) $ stetig ist und zusätzlich eine partielle Ableitung $ f _ hat ^ < prime >$ an dieser Stelle, dann ist $ f $ an dieser Stelle differenzierbar.

Ist eine Funktion $ f $ an allen Punkten eines offenen Gebietes $ D $ differenzierbar, dann ist an jedem Punkt des Gebietes

$ d z = A ( x , y ) d x + B ( x , y ) d y , $

wobei $ A ( x , y ) = f _ ^ < prime >( x , y ) $, $ B ( x , y ) = f _ ^ < prime >( x , y ) $. Existieren zusätzlich stetige partielle Ableitungen $ A _ ^ prime $ und $B_ ^ < prime >$ in $ D $, dann überall in $ D $,

Dies beweist insbesondere, dass nicht jeder Ausdruck

$ A ( x , y ) d x + B ( x , y ) d y $

mit stetigem $ A $ und $ B $( in einem Gebiet $ D $) ist das totale Differential einer Funktion zweier Variablen. Dies ist ein Unterschied zu Funktionen einer Variablen, bei denen jeder Ausdruck $ A ( x) d x $ mit einer stetigen Funktion $ A $ in einem bestimmten Intervall das Differential einer Funktion ist.

Der Ausdruck $ A dx + B dy $ ist das totale Differential einer Funktion $ z = f ( x , y ) $ in einem einfach zusammenhängenden offenen Gebiet $ D $ wenn $ A $ und $ B $ in diesem Gebiet stetig sind, erfüllen die Bedingung $ A _ ^ prime = B_ ^ < prime >$ und zusätzlich: a) $ A _ ^ prime $ und $B_ ^ < prime >$ sind stetig oder b) $ A $ und $ B $ sind überall in $ D $ bezüglich der beiden Variablen $ x $ und $ y $[7], [8] differenzierbar.

Siehe auch Differentialrechnung für Differentiale reellwertiger Funktionen einer oder mehrerer reeller Variablen und für Differentiale höherer Ordnungen.

3) Sei eine Funktion $ f $ auf einer Menge $ E $ reeller Zahlen definiert, sei $ x $ ein Grenzpunkt dieser Menge, sei $ x in E $, $ x + Delta x in E $ , $ Delta y = A Delta x + alpha $, wobei $ alpha / Delta x ightarrow 0 $ wenn $ Delta x ightarrow 0 $ dann heißt die Funktion $ f $ differenzierbar bezüglich der Menge $ E $ bei $ x $, während $ dy = A Updelta x $ sein Differential zur Menge $ E $ bei $ x $ genannt wird. Dies ist eine Verallgemeinerung des Differentials einer reellwertigen Funktion einer reellen Variablen. Besondere Arten dieser Verallgemeinerung sind Differentiale an den Endpunkten des Intervalls, innerhalb dessen die Funktion definiert ist, und das approximative Differential (vgl. Approximative Differentiability).

In ähnlicher Weise werden Differentiale bezüglich einer Menge für reellwertige Funktionen mehrerer reeller Variablen eingeführt.

4) Alle oben gegebenen Definitionen der Differenzierbarkeit und eines Differentials lassen sich nahezu unverändert auf komplexwertige Funktionen einer oder mehrerer reeller Variablen auf reellwertige und komplexwertige Vektorfunktionen einer oder mehrerer reeller Variablen und auf komplexe Funktionen erweitern und Vektorfunktionen einer oder mehrerer komplexer Variablen. In der Funktionalanalysis werden sie auf Funktionen der Punkte eines abstrakten Raumes erweitert. Man kann von Differenzierbarkeit und vom Differential einer Mengenfunktion nach einem bestimmten Maß sprechen.

Verweise

[1] G. P. Tolstov, "Elemente der mathematischen Analyse", 1–2 , Moskau (1974) (auf Russisch) MR0357695 MR0354961
[2] GM Fichtenholz, "Differential und Integralrechnung", 1 , Deutsch. Verlag Wissenschaft. (1964) MR1191905 MR1056870 MR1056869 MR0887101 MR0845556 MR0845555 MR0524565 MR0473117 MR0344040 MR0344039 MR0238635 MR0238637 MR0238636 Zbl 0143.27002
[3] L.D. Kudryavtsev, "Mathematische Analyse", 1 , Moskau (1973) (auf Russisch) MR1617334 MR1070567 MR1070566 MR1070565 MR0866891 MR0767983 MR0767982 MR0628614 MR0619214 Zbl 1080.00002 Zbl 1080.00001 Zbl 1060.26002 Zbl 0869.00003 Zbl 0696.26002 Zbl 0036.26001 Zbl 0603.001
[4] S. M. Nikol'skii, "Ein Kurs der mathematischen Analyse", 1 , MIR (1977) (Übersetzt aus dem Russischen) Zbl 0397.00003 Zbl 0384.00004
[5] W. Rudin, "Prinzipien der mathematischen Analyse", McGraw-Hill (1953) MR0055409 Zbl 0052.05301
[6] EIN. Kolmogorov, S. V. Fomin, "Elemente der Funktionentheorie und Funktionsanalyse", 1–2 , Graylock (1957–1961) (Übersetzt aus dem Russischen) MR1025126 MR0708717 MR0630899 MR0435771 MR0377444 MR0234241 MR0215962 MR0118796 MR1530727 MR0118795 MR0085462 MR0070045 Zbl 0932.46001 Zbl 0672.46001 Zbl 05013.001
[7] G. P. Tolstov, "Über krummlinige und iterierte Integrale" Trudy Mat. Inst. Steklow. , 35 (1950) (auf Russisch) MR44612
[8] G. P. Tolstov, "Über das Gesamtdifferential" Uspekhi Mat. Nauka , 3 : 5 (1948) S. 167–170 MR0027044

Bemerkungen

Für Verallgemeinerungen auf Funktionen zwischen abstrakten Räumen siehe auch Fréchet-Derivat Gâteaux-Derivat.

Zur Ableitung einer Funktion $ f : mathbf C ightarrow mathbf C $ siehe Analytische Funktion.


3 Antworten 3

Sie können Refine auch mit Element verwenden:

1. Beispiel mit Reals

aber wenn x als reell angenommen wird:

und wenn x und y als reell angenommen werden:

2. Beispiel mit ganzen Zahlen

aber wenn n als ganze Zahl angenommen wird:

Sie können ∈ Symbol in der Form n ∈ Integers mit ESC +el+ ESC oder durch Eingabe von [Element] eingeben, oder Sie können die alternative Form Element[n, Integers] verwenden.

Um alle globalen Annahmen zu löschen: $Annahmen = True

Konjugieren geht standardmäßig davon aus, dass alle symbolischen Größen potentiell komplex sind. Dies mag zunächst ärgerlich erscheinen, aber es gibt einen sehr guten Grund dafür, und eine Möglichkeit, dies zu erkennen, besteht darin, Ihre eigene Version von Conjugate zu definieren und zu sehen, dass sie fehlschlägt. Aus pädagogischen Gründen mache ich das unten.

Definieren Sie $Conjugate wie folgt:

Dies ersetzt einfach jedes Vorkommen von I durch -I . Beispielsweise:

was Sie vermutlich erwartet haben.

Beachten Sie, dass diese einfache Definition von $Conjugate garantiert nur bei Zahlen und Funktionen funktioniert, die $f(overline)=overline$, was seltsamerweise für die meisten analytischen Elementarfunktionen wie Zeta , Gamma , Sin , Log und viele andere gilt.

Ein mögliches Gegenbeispiel ist SphericalHarmonicY :

die zwei verschiedene Ausgaben erzeugt:

Im Gegensatz dazu führt das Ersetzen von $Conjugate durch das integrierte Conjugate zu korrekten Ergebnissen. Während Conjugate also albern aussehende Ausgaben liefern kann, ist es garantiert korrekt, so dass eine einfache Ersetzung $a+bi ightarrow a-bi$ nicht unbedingt korrekte Ergebnisse liefert!

Um in der Zwischenzeit davon auszugehen, dass n eine ganze Zahl in Ihrem Integral ist, tun Sie Folgendes:


4.1 Übersicht

Das Analysepaket ist das Elternpaket für Algorithmen, die sich mit reellwertigen Funktionen einer reellen Variablen befassen. Es enthält spezielle Unterpakete zur numerischen Wurzelfindung, Integration, Interpolation und Differenzierung. Es enthält auch ein Polynom-Unterpaket, das Polynome mit reellen Koeffizienten als differenzierbare reelle Funktionen betrachtet.

Funktionsschnittstellen sollen durch Benutzercode implementiert werden, um ihre Domänenprobleme darzustellen. Die von der Bibliothek bereitgestellten Algorithmen arbeiten dann mit dieser Funktion, um ihre Wurzeln zu finden oder sie zu integrieren, oder . Funktionen können multivariat oder univariat, reell vektoriell oder matrixbewertet sein, und sie können differenzierbar sein oder nicht.

4.2 Fehlerbehandlung

Bei benutzerdefinierten Funktionen müssen Benutzer, wenn die Methode während der Auswertung auf einen Fehler stößt, ihre eigen ungeprüfte Ausnahmen. Das folgende Beispiel zeigt die empfohlene Vorgehensweise, wobei die Wurzellösung als Beispiel verwendet wird (das gleiche Konstrukt sollte für ODE-Integratoren oder für Optimierungen verwendet werden).

Wie in diesem Beispiel gezeigt, handelt es sich bei der Ausnahme tatsächlich um eine lokale Ausnahme im Benutzercode, und es gibt eine Garantie dafür, dass Apache Commons Math sie nicht durcheinander bringt. Der Benutzer ist sicher.

4.3 Wurzelfindung

UnivariateSolver, UnivariateDifferentiableSolver und PolynomialSolver stellen Mittel bereit, um Wurzeln von univariaten reellwertigen Funktionen, differenzierbaren univariaten reellwertigen Funktionen bzw. polynomialen Funktionen zu finden. Eine Wurzel ist der Wert, bei dem die Funktion den Wert 0 annimmt. Commons-Math enthält Implementierungen der verschiedenen Algorithmen zur Wurzelfindung:

Wurzellöser
Name Funktionstyp Konvergenz Benötigt eine anfängliche Belichtungsreihe Auswahl der Halterungsseite
Halbierung univariate reellwertige Funktionen linear, garantiert Jawohl Jawohl
Brent-Dekker univariate reellwertige Funktionen superlinear, garantiert Jawohl Nein
Belichtungsreihe n-ter Ordnung Brent univariate reellwertige Funktionen variable bestellung, garantiert Jawohl Jawohl
Illinois-Methode univariate reellwertige Funktionen superlinear, garantiert Jawohl Jawohl
Laguerres Methode Polynomfunktionen kubisch für einfache Wurzel, linear für mehrere Wurzel Jawohl Nein
Muller-Methode, die Klammern verwendet, um mit reellwertigen Funktionen umzugehen univariate reellwertige Funktionen quadratisch nah an den Wurzeln Jawohl Nein
Muller-Methode, die den Modulus verwendet, um mit reellwertigen Funktionen umzugehen univariate reellwertige Funktionen quadratisch nahe der Wurzel Jawohl Nein
Newton-Raphson-Methode differenzierbare univariate reellwertige Funktionen quadratisch, nicht garantiert Nein Nein
Pegasus-Methode univariate reellwertige Funktionen superlinear, garantiert Jawohl Jawohl
Regula Falsi (falsche Position) Methode univariate reellwertige Funktionen linear, garantiert Jawohl Jawohl
Reitermethode univariate reellwertige Funktionen superlinear Jawohl Nein
Sekantenmethode univariate reellwertige Funktionen superlinear, nicht garantiert Jawohl Nein

Einige Algorithmen erfordern, dass das anfängliche Suchintervall die Wurzel einklammert (d. h. die Funktionswerte an den Intervallendpunkten haben entgegengesetzte Vorzeichen). Einige Algorithmen behalten die Klammerung während der gesamten Berechnung bei und ermöglichen dem Benutzer anzugeben, welche Seite des Konvergenzintervalls als Wurzel ausgewählt werden soll. Es ist auch möglich, eine Seitenauswahl zu erzwingen, nachdem eine Wurzel gefunden wurde, selbst für Algorithmen, die diese Funktion nicht selbst bereitstellen. Dies ist beispielsweise bei der sequentiellen Suche sinnvoll, bei der nach dem Auffinden einer Wurzel ein neues Suchintervall gestartet wird, um die nächste Wurzel zu finden. In diesem Fall muss der Benutzer eine Seite auswählen, um sicherzustellen, dass seine Schleife nicht an einer Wurzel hängen bleibt und immer die gleiche Lösung zurückgeben, ohne Fortschritte zu erzielen.

Es gibt zahlreiche nicht offensichtliche Fallen und Fallstricke bei der Wurzelfindung. Zunächst gelten die üblichen Haftungsausschlüsse aufgrund der Art und Weise, wie reale Computer Werte berechnen. Wenn die Berechnung der Funktion numerische Instabilitäten liefert, zum Beispiel aufgrund von Bitaufhebung, können sich die Wurzelsuchalgorithmen schlecht verhalten und nicht konvergieren oder sogar falsche Werte zurückgeben. Es gibt nicht unbedingt einen Hinweis darauf, dass die berechnete Wurzel weit vom wahren Wert entfernt ist. Zweitens kann das Wurzelfindungsproblem selbst von Natur aus schlecht konditioniert sein. Es gibt einen "Unbestimmtheitsbereich", das Intervall, für das die Funktion Absolutwerte nahe Null um die wahre Wurzel hat, die groß sein kann. Schlimmer noch, kleine Probleme wie Rundungsfehler können dazu führen, dass der Funktionswert zwischen negativen und positiven Werten "numerisch oszilliert". Dies kann wiederum dazu führen, dass die Wurzeln ohne Anzeige weit vom wahren Wert abweichen. Es gibt nicht viel, was ein generischer Algorithmus tun kann, wenn schlecht konditionierte Probleme erfüllt werden. Eine Möglichkeit, dies zu umgehen, besteht darin, das Problem zu transformieren, um eine besser konditionierte Funktion zu erhalten. Die richtige Auswahl eines Wurzelfindungsalgorithmus und seiner Konfigurationsparameter erfordert Kenntnisse der analytischen Eigenschaften der zu analysierenden Funktion und numerischer Analysetechniken. Benutzern wird empfohlen, bei der Auswahl und Konfiguration eines Solvers einen Text zur numerischen Analyse (oder einen numerischen Analytiker) zu konsultieren.

Um die Root-Finding-Features zu verwenden, muss zuerst ein Solver-Objekt durch Aufrufen seines Konstruktors erstellt werden, was häufig eine relative und absolute Genauigkeit bietet. Mit einem Solver-Objekt lassen sich mit den Solver-Methoden Funktionen leicht finden. These methods takes a maximum iteration count maxEval , a function f , and either two domain values, min and max , or a startValue as parameters. If the maximal number of iterations count is exceeded, non-convergence is assumed and a ConvergenceException exception is thrown. A suggested value is 100, which should be plenty, given that a bisection algorithm can't get any more accurate after 52 iterations because of the number of mantissa bits in a double precision floating point number. If a number of ill-conditioned problems is to be solved, this number can be decreased in order to avoid wasting time. Bracketed solvers also take an allowed solution enum parameter to specify which side of the final convergence interval should be selected as the root. It can be ANY_SIDE , LEFT_SIDE , RIGHT_SIDE , BELOW_SIDE or ABOVE_SIDE . Left and right are used to specify the root along the function parameter axis while below and above refer to the function value axis. The solve methods compute a value c such that:

  • f(c) = 0.0 (see "function value accuracy")
  • min <= c <= max (except for the secant method, which may find a solution outside the interval)

Force bracketing, by refining a base solution found by a non-bracketing solver:

The BrentSolver uses the Brent-Dekker algorithm which is fast and robust. If there are multiple roots in the interval, or there is a large domain of indeterminacy, the algorithm will converge to a random root in the interval without indication that there are problems. Interestingly, the examined text book implementations all disagree in details of the convergence criteria. Also each implementation had problems for one of the test cases, so the expressions had to be fudged further. Don't expect to get exactly the same root values as for other implementations of this algorithm.

The BracketingNthOrderBrentSolver uses an extension of the Brent-Dekker algorithm which uses inverse n th order polynomial interpolation instead of inverse quadratic interpolation, and which allows selection of the side of the convergence interval for result bracketing. This is now the recommended algorithm for most users since it has the largest order, doesn't require derivatives, has guaranteed convergence and allows result bracket selection.

The SecantSolver uses a straightforward secant algorithm which does not bracket the search and therefore does not guarantee convergence. It may be faster than Brent on some well-behaved functions.

The RegulaFalsiSolver is variation of secant preserving bracketing, but then it may be slow, as one end point of the search interval will become fixed after and only the other end point will converge to the root, hence resulting in a search interval size that does not decrease to zero.

The IllinoisSolver and PegasusSolver are well-known variations of regula falsi that fix the problem of stuck end points by slightly weighting one endpoint to balance the interval at next iteration. Pegasus is often faster than Illinois. Pegasus may be the algorithm of choice for selecting a specific side of the convergence interval.

The BisectionSolver is included for completeness and for establishing a fall back in cases of emergency. The algorithm is simple, most likely bug free and guaranteed to converge even in very adverse circumstances which might cause other algorithms to malfunction. The drawback is of course that it is also guaranteed to be slow.

The UnivariateSolver interface exposes many properties to control the convergence of a solver. The accuracy properties are set at solver instance creation and cannot be changed afterwards, there are only getters to retriveve their values, no setters are available.

Property Purpose
Absolute accuracy The Absolute Accuracy is (estimated) maximal difference between the computed root and the true root of the function. This is what most people think of as "accuracy" intuitively. The default value is chosen as a sane value for most real world problems, for roots in the range from -100 to +100. For accurate computation of roots near zero, in the range form -0.0001 to +0.0001, the value may be decreased. For computing roots much larger in absolute value than 100, the default absolute accuracy may never be reached because the given relative accuracy is reached first.
Relative accuracy The Relative Accuracy is the maximal difference between the computed root and the true root, divided by the maximum of the absolute values of the numbers. This accuracy measurement is better suited for numerical calculations with computers, due to the way floating point numbers are represented. The default value is chosen so that algorithms will get a result even for roots with large absolute values, even while it may be impossible to reach the given absolute accuracy.
Function value accuracy This value is used by some algorithms in order to prevent numerical instabilities. If the function is evaluated to an absolute value smaller than the Function Value Accuracy, the algorithms assume they hit a root and return the value immediately. The default value is a "very small value". If the goal is to get a near zero function value rather than an accurate root, computation may be sped up by setting this value appropriately.

4.4 Interpolation

A UnivariateInterpolator is used to find a univariate real-valued function f which for a given set of ordered pairs ( xich , yich ) yields f(xich)=yich to the best accuracy possible. The result is provided as an object implementing the UnivariateFunction interface. It can therefore be evaluated at any point, including point not belonging to the original set. Currently, only an interpolator for generating natural cubic splines and a polynomial interpolator are available. There is no interpolator factory, mainly because the interpolation algorithm is more determined by the kind of the interpolated function rather than the set of points to interpolate. There aren't currently any accuracy controls either, as interpolation accuracy is in general determined by the algorithm.

A natural cubic spline is a function consisting of a polynomial of third degree for each subinterval determined by the x-coordinates of the interpolated points. A function interpolating N value pairs consists of N-1 polynomials. The function is continuous, smooth and can be differentiated twice. The second derivative is continuous but not smooth. The x values passed to the interpolator must be ordered in ascending order. It is not valid to evaluate the function for values outside the range x0 .. xn .

The polynomial function returned by the Neville's algorithm is a single polynomial guaranteed to pass exactly through the interpolation points. The degree of the polynomial is the number of points minus 1 (i.e. the interpolation polynomial for a three points set will be a quadratic polynomial). Despite the fact the interpolating polynomials is a perfect approximation of a function at interpolation points, it may be a loose approximation between the points. Due to Runge's phenomenom the error can get worse as the degree of the polynomial increases, so adding more points does not always lead to a better interpolation.

Loess (or Lowess) interpolation is a robust interpolation useful for smoothing univariate scaterplots. It has been described by William Cleveland in his 1979 seminal paper Robust Locally Weighted Regression and Smoothing Scatterplots. This kind of interpolation is computationally intensive but robust.

Microsphere interpolation is a robust multidimensional interpolation algorithm. It has been described in William Dudziak's MS thesis.

Hermite interpolation is an interpolation method that can use derivatives in addition to function values at sample points. The HermiteInterpolator class implements this method for vector-valued functions. The sampling points can have any spacing (there are no requirements for a regular grid) and some points may provide derivatives while others don't provide them (or provide derivatives to a smaller order). Points are added one at a time, as shown in the following example:

A BivariateGridInterpolator is used to find a bivariate real-valued function f which for a given set of tuples ( xich , yJ , fij ) yields f(xich,yJ)=fij to the best accuracy possible. The result is provided as an object implementing the BivariateFunction interface. It can therefore be evaluated at any point, including a point not belonging to the original set. The arrays xich AndyJ must be sorted in increasing order in order to define a two-dimensional grid.

In bicubic interpolation, the interpolation function is a 3rd-degree polynomial of two variables. The coefficients are computed from the function values sampled on a grid, as well as the values of the partial derivatives of the function at those grid points. From two-dimensional data sampled on a grid, the BicubicSplineInterpolator computes a bicubic interpolating function. Prior to computing an interpolating function, the SmoothingPolynomialBicubicSplineInterpolator class performs smoothing of the data by computing the polynomial that best fits each of the one-dimensional curves along each of the coordinate axes.

A TrivariateGridInterpolator is used to find a trivariate real-valued function f which for a given set of tuples ( xich , yJ , zk , fijk ) yields f(xich,yJ,zk)=fijk to the best accuracy possible. The result is provided as an object implementing the TrivariateFunction interface. It can therefore be evaluated at any point, including a point not belonging to the original set. The arrays xich , yJ and zk must be sorted in increasing order in order to define a three-dimensional grid.

In tricubic interpolation, the interpolation function is a 3rd-degree polynomial of three variables. The coefficients are computed from the function values sampled on a grid, as well as the values of the partial derivatives of the function at those grid points. From three-dimensional data sampled on a grid, the TricubicSplineInterpolator computes a tricubic interpolating function.

4.5 Integration

A UnivariateIntegrator provides the means to numerically integrate univariate real-valued functions. Commons-Math includes implementations of the following integration algorithms:

4.6 Polynomials

The org.apache.commons.math4.analysis.polynomials package provides real coefficients polynomials.

The PolynomialFunction class is the most general one, using traditional coefficients arrays. The PolynomialsUtils utility class provides static factory methods to build Chebyshev, Hermite, Jacobi, Laguerre and Legendre polynomials. Coefficients are computed using exact fractions so these factory methods can build polynomials up to any degree.

4.7 Differentiation

The org.apache.commons.math4.analysis.differentiation package provides a general-purpose differentiation framework.

The core class is DerivativeStructure which holds the value and the differentials of a function. This class handles some arbitrary number of free parameters and arbitrary derivation order. It is used both as the input and the output type for the UnivariateDifferentiableFunction interface. Any differentiable function should implement this interface.

The main idea behind the DerivativeStructure class is that it can be used almost as a number (i.e. it can be added, multiplied, its square root can be extracted or its cosine computed. However, in addition to computed the value itself when doing these computations, the partial derivatives are also computed alongside. This is an extension of what is sometimes called Rall's numbers. This extension is described in Dan Kalman's paper Doubly Recursive Multivariate Automatic Differentiation, Mathematics Magazine, vol. 75, no. 3, June 2002. Rall's numbers only hold the first derivative with respect to one free parameter whereas Dan Kalman's derivative structures hold all partial derivatives up to any specified order, with respect to any number of free parameters. Rall's numbers therefore can be seen as derivative structures for order one derivative and one free parameter, and primitive real numbers can be seen as derivative structures with zero order derivative and no free parameters.

The workflow of computation of a derivatives of an expression y=f(x) is the following one. First we configure an input parameter x of type DerivativeStructure so it will drive the function to compute all derivatives up to order 3 for example. Then we compute y=f(x) normally by passing this parameter to the f function.At the end, we extract from y the value and the derivatives we want. As we have specified 3 rd order when we built x , we can retrieve the derivatives up to 3 rd order from y . The following example shows that (the 0 parameter in the DerivativeStructure constructor will be explained in the next paragraph):

In fact, there are no notions of Variablen in the framework, so neither x nor y are considered to be variables per se. They are both considered to be Funktionen and to depend on implicit free parameters which are represented only by indices in the framework. The x instance above is there considered by the framework to be a function of free parameter p0 at index 0, and as y is computed from x it is the result of a functions composition and is therefore also a function of this p0 free parameter. The p0 is not represented by itself, it is simply defined implicitely by the 0 index above. This index is the third argument in the constructor of the x instance. What this constructor means is that we built x as a function that depends on one free parameter only (first constructor argument set to 1), that can be differentiated up to order 3 (second constructor argument set to 3), and which correspond to an identity function with respect to implicit free parameter number 0 (third constructor argument set to 0), with current value equal to 2.5 (fourth constructor argument set to 2.5). This specific constructor defines identity functions, and identity functions are the trick we use to represent variables (there are of course other constructors, for example to build constants or functions from all their derivatives if they are known beforehand). From the user point of view, the x instance can be seen as the x variable, but it is really the identity function applied to free parameter number 0. As the identity function, it has the same value as its parameter, its first derivative is 1.0 with respect to this free parameter, and all its higher order derivatives are 0.0. This can be checked by calling the getValue() or getPartialDerivative() methods on x .

When we compute y from this setting, what we really do is chain f after the identity function, so the net result is that the derivatives are computed with respect to the indexed free parameters (i.e. only free parameter number 0 here since there is only one free parameter) of the identity function x. Going one step further, if we compute z = g(y) , we will also compute z as a function of the initial free parameter. The very important consequence is that if we call z.getPartialDerivative(1) , we will not get the first derivative of g with respect to y , but with respect to the free parameter p0 : the derivatives of g and f Wille be chained together automatically, without user intervention.

This design choice is a very classical one in many algorithmic differentiation frameworks, either based on operator overloading (like the one we implemented here) or based on code generation. It implies the user has to bootstrap the system by providing initial derivatives, and this is essentially done by setting up identity function, i.e. functions that represent the variables themselves and have only unit first derivative.

This design also allow a very interesting feature which can be explained with the following example. Suppose we have a two arguments function f and a one argument function g . If we compute g(f(x, y)) with x and y be two variables, we want to be able to compute the partial derivatives dg/dx , dg/dy , d2g/dx2 d2g/dxdy d2g/dy2 . This does make sense since we combined the two functions, and it does make sense despite g is a one argument function only. In order to do this, we simply set up x as an identity function of an implicit free parameter p0 and y as an identity function of a different implicit free parameter p1 and compute everything directly. In order to be able to combine everything, however, both x and y must be built with the appropriate dimensions, so they will both be declared to handle two free parameters, but x will depend only on parameter 0 while y will depend on parameter 1. Here is how we do this (note that getPartialDerivative is a variable arguments method which take as arguments the derivation order with respect to all free parameters, i.e. the first argument is derivation order with respect to free parameter 0 and the second argument is derivation order with respect to free parameter 1):

There are several ways a user can create an implementation of the UnivariateDifferentiableFunction interface. The first method is to simply write it directly using the appropriate methods from DerivativeStructure to compute addition, subtraction, sine, cosine. This is often quite straigthforward and there is no need to remember the rules for differentiation: the user code only represent the function itself, the differentials will be computed automatically under the hood. The second method is to write a classical UnivariateFunction and to pass it to an existing implementation of the UnivariateFunctionDifferentiator interface to retrieve a differentiated version of the same function. The first method is more suited to small functions for which user already control all the underlying code. The second method is more suited to either large functions that would be cumbersome to write using the DerivativeStructure API, or functions for which user does not have control to the full underlying code (for example functions that call external libraries).

Apache Commons Math provides one implementation of the UnivariateFunctionDifferentiator interface: FiniteDifferencesDifferentiator. This class creates a wrapper that will call the user-provided function on a grid sample and will use finite differences to compute the derivatives. It takes care of boundaries if the variable is not defined on the whole real line. It is possible to use more points than strictly required by the derivation order (for example one can specify an 8-points scheme to compute first derivative only). However, one must be aware that tuning the parameters for finite differences is highly problem-dependent. Choosing the wrong step size or the wrong number of sampling points can lead to huge errors. Finite differences are also not well suited to compute high order derivatives. Here is an example on how this implementation can be used:

Note that using FiniteDifferencesDifferentiatora> in order to have a UnivariateDifferentiableFunction that can be provided to a Newton-Raphson's solver is a very bad idea. The reason is that finite differences are not really accurate and needs lots of additional calls to the basic underlying function. If user initially have only the basic function available and needs to find its roots, it is much more accurate and much more efficient to use a solver that only requires the function values and not the derivatives. A good choice is to use bracketing n th order Brent method, which in fact converges faster than Newton-Raphson's and can be configured to a highere order (typically 5) than Newton-Raphson which is an order 2 method.

Another implementation of the UnivariateFunctionDifferentiator interface is under development in the related project Apache Commons Nabla. This implementation uses automatic code analysis and generation at binary level. However, at time of writing (end 2012), this project is not yet suitable for production use.

Copyright © 2003-2021 The Apache Software Foundation. All Rights Reserved.


Differentiability in (R^n) and the gradient

Suppose that (S) is an open subset of (R^n) and consider a function (f:S o R) .

We will define differentiability in a way that generalizes definition (eqref) . The idea is that (f) is differentiable at a point (mathbf xin S) if (f) can be approximated near (mathbf x) by a linear map (R^n o R) , with errors that are smaller than linear near (x) .

To make this precise, we will suppose that (mathbf xin S) is fixed, and we will consider the function (mathbf h mapsto f(mathbf x+mathbf h)-f(mathbf x)) of a variable (mathbf hin R^n) .

Remark. The notation (a mapsto b) defines the function (f(a)=b) .

We want (f) to be differenzierbar at (mathbf x iff f(mathbf x+mathbf h) - f(mathbf x)) is approximately a linear function of (mathbf h) , for (mathbf h) near (mathbf 0) .

Recall from linear algebra:

Another way of saying this is: a function (ell:R^n o R^m) is linear if [ ell(amathbf x+bmathbf y) = a ell (mathbf x) + b ell(mathbf y)quad ext< for all >a,bin R ext < and >mathbf x,mathbf y in R^n. ] If a function has the form (f(mathbf x) = Mmathbf x + mathbf b) , we will say that it is affine. We may also sometimes call it a first-order polynomial oder ein polynomial of degree 1.

In general, we know from linear algebra that if (ell:R^n oR) is a linear function, then (ell) can be written in the form [ ell(mathbf h) = mathbf m cdot mathbf hqquad ext< for some vector >mathbf min R^n. ]

So, combining all these, we are led to the following basic definition:

Note that ( abla f(mathbf x)) is uniquely determined by condition (eqref) . Thus, the gradient ( abla f) (when it exists) is characterized by the property that [ lim_>frac < f(mathbf x+mathbf h) - f(mathbf x) - abla f(mathbf x) cdot mathbf h> <|mathbf h|>= 0. ]

We can also write a definition in the style of (eqref) :

These definitions can be understood as follows: temporarily fix (mathbf x) , view (mathbf h) as a variable, and view (f(mathbf x+mathbf h) - f(mathbf x)) as a function of (mathbf h) . Then (f) is differentiable at (mathbf x) if the linear function (mathbf mcdot mathbf h) approximates (f(mathbf x+mathbf h)-f(mathbf x)) , with errors that are smaller than linear as (mathbf h o ) .

We will soon see that there is a simple computational way of finding out what the gradient of (f) must be, if it exists. First, let’s do one example the hard way. This will help us to appreciate the theorems that will be proved shortly.

Beispiel 1.

Consider (f:R^2 o R) defined by [ f(x,y) = (x-1)^3(y+2). ] Is (f) differentiable at the origin?

Solution To check, let’s write a vector (mathbf h) in the form (mathbf h = (h, k)) . Then [egin f((0,0) + (h,k)) &= f(h,k) &=-2 + (6h-k) + (h^3k -3h^2k + 3hk + 2 h^3 - 6 h^2) &=f(0,0) + (6, -1)cdot (h,k) + E(mathbf h), end] where (E(mathbf h)= h^3k -3h^2k + 3hk + 2 h^3 - 6 h^2) . We can check that [lim_ frac> = 0.] So (f) is differentiable at the origin and ( abla f(0,0) = (6, -1)) .

The next important property of differentiability generalizes a familiar fact about functions of a single variable.


Time Series Analysis: Methods and Applications

Hernando Ombao , in Handbook of Statistics , 2012

2.6 The SLEX and Other Localized Waveforms

Wavelets are mathematical functions with localized oscillatory features. They are commonly utilized to estimate functions that have sudden bursts and peaks at localized regions. See the study by Donoho and Johnstone (1994) , Donoho and Johnstone (1995) for seminal work on nonparametric function estimation using wavelets. Moreover, wavelets have also been developed in Nason et al. (2000) for representing time series with time-varying spectral and scale decompositions. For a comprehensive treatment on the applications of wavelets to various statistical problems, see the study by Vidakovic (1999) .

Wavelet packets form another class of localized waveforms. Wavelet packets are a generalization of wavelets. Analogously to SLEX, wavelet packets also form a library of orthonormal bases, which contains the wavelet basis. Due to their generality, wavelet packets offer more flexibility in representing signals that exhibit oscillatory or periodic behavior. One distinction between wavelet packets and SLEX is the manner in which they segment the time–frequency plane. Although the SLEX library is obtained by generating waveforms whose time support dyadically divides the time axis, the wavelet packet library consists of waveforms whose spectral power or frequency support dyadi-cally divides the frequency axis. The best wavelet packet orthonormal basis can also be selected using the best basis algorithm. Detailed discussion on the construction of the wavelet packets is given in the study by Wickerhauser (1994) .

Cosine packets are also another time and frequency localized waveforms Auscher et al. (1992) . The cosine packet transform (CPT) shares common features with the SLEX transform: both are time-localized trigonometric functions and both dyadically divide the time axis (rather than the frequency axis, as in WPT) of the time–frequency plane. Moreover, both waveforms are obtained by applying the same window pairs. An application of Ψ + and Ψ − (see Fig. 3 ) on the complex exponential function produces the SLEX waveform, whereas an application of the same windows on the cosine functions gives the cosine packet waveforms.

There are a number of advantages to using the SLEX rather than the wavelet packets or the cosine packets for analyzing multivariate time series. The SLEX waveforms are complex valued and hence can be directly used to estimate the lag between components of a multivariate time series. Moreover, the SLEX waveforms are time- and frequency-localized generalizations of the Fourier waveforms. Thus, the SLEX methods parallel classical spectral analysis of stationary processes that are based on the Fourier functions. Using the SLEX library, one can develop a family of models that is a time-dependent analog of the Cramèr spectral representation for stationary processes. This family of SLEX representations can be used to study time-evolving coherence and to select time–frequency spectral features for classification and discrimination of nonstationary time series.


Schau das Video: Excelmakro-skolan, del 7. Variabler och konstanter i VBA (Januar 2022).