Нелинейные дифференциальные уравнения, дискретность пространства-времени и эпсилон произведение

Всё содержание этой статьи является следствием решения задачи уровня первого года институтского курса математического анализа.

Здесь мы вводим новое произведение для решетчатых функций (мы будем называть его эпсилон-умножением), что дает нам возможность увидеть интересную связь между интегрально-дифференциальными уравнениями (в том числе и нелинейными) и рекуррентными соотношениями. Это позволяет с необычного ракурса взглянуть на некоторые методы их решения.

Но, что мне показалось особенно интересным, это то, что новое произведение также позволяет нам «порассуждать» о таких фундаментальных вещах, как непрерывность пространства-времени. Это рассуждение, конечно, нужно рассматривать, скорее, как интеллектуальное упражнение.

Мне показалось, что этот математический ребус или, если хотите, небольшое математическое путешествие на уровне знаний первого-второго курса технического ВУЗа может заинтересовать читателей Хабра, интересующихся математикой.

Замечание

  • вы не увидите никаких ссылок и, вообще, всё это результат размышлений отдельно взятого человека
  • возможно (и даже скорее всего), всё это и не ново, и, возможно, некоторые термины, которые я использую не соответствуют математической традиции, но так как это не научная публикация, здесь нет претензии на новизну и всё это довольно просто, то это терминологическое отличие, на мой взгляд, не является чем-то действительно важным

Краткое изложение

В этой статье речь будет идти о двух типах функций (определенных в области действительных чисел): аналитических и решетчатых.

Замечание 1

Точнее речь будет идти об аналитических справа от нуля функциях, которые мы будем обозначать заглавными буквами Нелинейные дифференциальные уравнения, дискретность пространства-времени и эпсилон произведение и о решетчатых функциях, определенных на множестве целых неотрицательных чисел ($N_0$), для обозначения которых мы будем использовать строчные буквы $ f_n, g_n, ...$. Множество таких решетчатых функций мы будем обозначать как $A^epsilon $. Точные определения этих функций будут приведены ниже в данной статье

Замечание 2

Иногда, в примерах мы будем расширять наш подход и на область комплексных чисел. Строго говоря, это должно быть обосновано. Но я опускаю это обоснование (как и доказательства некоторых других утверждений), чтобы не перегружать и так длинную статью

Мы установим взаимно однозначное соответствие между функциями из этих двух классов. Мы также введем новые операции для решетчатых функций. Эти операции будут аналогичны «обычным» операциям над «обычными» функциями. Мы будем отличать эти новые операции добавлением приставки «эпсилон». Так «обычной» производной будет соответствовать эпсилон-производная, обычному произведению — эпсилон-произведение, обычному интегрированию — эпсилон-интегрирование и т.д. При этом, если операция остается неизменной (как в случае суммирования и вычитание) название меняться не будет.

Одна из основных целей введения этих операций проста — сохранить свойства производной произведения функций:

$(F(x)G(x))' = F'(x)G(x) + F(x)G'(x)$

Что в случае решетчатых функций ($in A^epsilon$) будет выглядеть как

$overset{displaystyleepsilon}{nabla} (f_n overset{displaystyleepsilon}{*}g_n) = overset{displaystyleepsilon}{nabla} f_n overset{displaystyleepsilon}{*}g_n + f_n overset{displaystyleepsilon}{*}overset{displaystyleepsilon}{nabla} g_n$

где $overset{displaystyleepsilon}{nabla}$ — левый оператор эпсилон-производной
$overset{displaystyleepsilon}{*}$ — эпсилон-умножение

Это позволит нам (по аналогии, например, с преобразованием Лапласа) ввести новое преобразование, которое мы будем называть эпсилон-преобразованием. Это даст нам возможность преобразовывать в общем случае нелинейные интегрально-дифференциальные уравнения в рекуррентные выражения и решать их (численно или аналитически), соответственно, рекуррентными методами.

Замечание

Также справедливо и обратное: мы получаем возможность решать рекуррентные соотношения методами интегрально-дифференциальных уравнений

Важным фактом при этом является то, что при стремлении шага решетчатой функции к нулю ($epsilon to 0$), все наши эпсилон-функции, эпсилон-операции и рекуррентные уравнения стремятся к «обычным» функциям (аналитическим справа от нуля), обычным операциям между ними и обычным интегрально-дифференциальным уравнениям.

Но тогда, это наводит на фундаментальный вопрос: а не является ли эпсилон-умножение «истинным» умножением в нашем физическом мире (по крайней мере там, где речь идет о пространстве или о времени)?

Так, например, говоря о времени, при достаточно малом шаге (например, порядка Планковского времени $t_p sim 10^{-43}$ сек) эпсилон-уравнение Шредингера c $epsilonsim t_p$ для временных процессов с характерным временем $t gg t_p$ (или в области частот с частотами $omega ll 1/epsilon$) будет давать тот же результат, что и обычное уравнение Шредингера, но при этом, естественным образом вводится квантование времени.

В принципе, аналогичное рассуждение возможно и для пространства.

Обозначения, используемые в статье

$f_n, g_n, p_n ...$ — строчными буквами мы будем обозначать решетчатые функции, определенные на множестве ${0,epsilon,2epsilon,ldots}$, где $epsilon in R$, $epsilon>0$» data-tex=»inline»></math>. В зависимости от контекста <math><img decoding= (или подобное, например, $g_n,p_n$) может быть или обозначением самой решетчатой функции или значением этой функции в точке $nepsilon$

$A^epsilon$ — множество всех функций $f_n$ определенных выше

$f$ — иногда, для обозначения функции $f_n$ для простоты будем писать просто $f$

$F(x), G(x), ..$ — заглавными буквами мы будем обозначать «обычные» функции. Все подобные функции в данной статье будут аналитическими справа от нуля функциями (определение будет дано ниже в статье)

$epsilon$ — шаг решетчатой функции: $f_k = f(kepsilon)$. В зависимости от контекста $f_n$ может быть или обозначением самой решетчатой функции или значением этой функции в точке $nepsilon$

$nabla$ — левый оператор, обозначающий производную дифференцируемой функции: $nabla F(x) = F ^{'}(x)$

$overset{displaystyleepsilon}{nabla}$ — левый оператор, обозначающий эпсилон-производную решетчатой функции: $overset{displaystyleepsilon}{nabla}{f_n} = f_n^overset{displaystyleepsilon}{'}$

$nabla_F$ — левый оператор, введенный для удобства записи некоторых выражений, и обозначающий производную дифференцируемой функции, применяемый только к функции $F(x) $ (или к производной функции $F(x)$ любого порядка) в произведении функций, например,

$nabla_F(F(x)G(x)) = G(x)nabla F(x) = G(x) F^{'}(x)$
$nabla^2_F(F(x)G(x)) = G(x)nabla^2 F(x) = G(x) F^{''}(x)$

$overset{wedge}{I}$ — единичный левый оператор для решетчатой функции: $overset{wedge}{I} f_n = f_n$

$overset{displaystyleepsilon}{'}$ — эпсилон-производная решетчатой функции:

$f_k^overset{displaystyleepsilon}{'} = (f_{k+1} - f_k)/epsilon$

$overset{displaystyleepsilon}{nabla}_f$ — левый оператор, введенный для удобства записи некоторых выражений, и обозначающий эпсилон-производную решетчатой функции, применяемый только к решетчатой функции $f$ (или эпсилон-производной функции $f$ любого порядка) в произведении (обычном) решетчатых функций, например,

$overset{displaystyleepsilon}{nabla}_f{(f_n g_n)} = g_noverset{displaystyleepsilon}{nabla}f_n$
$overset{displaystyleepsilon}{nabla^2}_f{(f_n g_n)} = g_noverset{displaystyleepsilon}{nabla^2}f_n$

$overset{displaystyleepsilon}{*}$ — эпсилон произведение

$f^{overset{displaystyleepsilon}{displaystyle i}}$$i$-ая эпсилон-степень функции $f$. Так, например, $f^{overset{displaystyleepsilon}{ 2}} = fdisplaystyleoverset{displaystyleepsilon}{*}{f}$

$f^{overset{displaystyleepsilon}{displaystyle (i)}}$$i$-ая эпсилон-производная функции $f$. Так, например, $f^{overset{displaystyleepsilon}{ (2)}} = (fdisplaystyleoverset{displaystyleepsilon}{'})displaystyleoverset{displaystyleepsilon}{'}$

$overset{epsilon}{rightarrow}$ — эпсилон-преобразование (прямое)

Если $F(x) overset{epsilon}{rightarrow} f_n$, то $F(x)$ и $f_n$ являются эпсилон-сопряженными, при этом $f_n$ является эпсилон-образом $F(x)$ и $F(x) $ — эпсилон-прообразом $f_n$

$overset{epsilon}{leftarrow}$ — обратное эпсилон-преобразование

Краткая логика статьи

Здесь изложена логическая структура статьи. Кому-то этого будет достаточно для понимания всей статьи и таким образом сохранит его время.

  • Мы будем рассматривать решетчатые функции $f_n, g_n,p_n$,…, определенные на множестве ${0,epsilon,2epsilon,ldots}$, где $epsilon in R$, $epsilon>0$» data-tex=»inline»></math>.<br />
<blockquote><p><b>Замечание</b></p>
<p>При этом <math><img decoding= может быть любым положительным действительным числом. Поэтому иногда в примерах, в тех случаях, когда мы не используем стремление $epsilon to 0$, мы принимаем для простоты $epsilon = 1$

  • Назовем эпсилон дифференцированием следующий левый оператор:
    $overset{displaystyleepsilon}{nabla}{f_n} = (f_{n+1} - f_n)/epsilon$, где $epsilon$ — шаг решетчатой функции
  • Введем новое произведение, которое будем называть эпсилон-произведением и обозначать как $f_n overset{displaystyleepsilon}{*} g_n $.

    Здесь три эквивалентные формулы для эпсилон-произведения:
    $p_k=(fdisplaystyleoverset{displaystyleepsilon}{*}{g})_k=(epsilon({{overset{displaystyleepsilon}{nabla}}_{f}}+{{overset{displaystyleepsilon}{nabla}}_{g}})+{overset{wedge}{I}})^k (f g)|_0$

    $p_k = (fdisplaystyleoverset{displaystyleepsilon}{*}{g})_k=sum_{j=0}^{k}C_{k}^{j}sum_{i=0}^{j}C_{j}^{i}{f^{overset{displaystyleepsilon}{(i)}}}|_0{g^{overset{displaystyleepsilon}{(j-i)}}}|_0$

    $p_k=(fdisplaystyleoverset{displaystyleepsilon}{*}{g})_k=sum_{j+i+l=k}C_k^{j,i}f_ig_j(-1)^{l}$

    где $C_{k}^{j,i}$ — биномиальный коэффициент Ньютона: $C_{k}^{j,i}=displaystylefrac{k!}{j!i!l!}$, ($l+j+i=k$)
    Его основные свойства:

    • свойства обычного умножения, такие как коммутативность, ассоциативность, дистрибутивность, существование единицы (единственной) и нулевого элемента (единственного)
    • для производной эпсилон-произведения решетчатых функций мы имеем ту же формулу, что и для производной произведения (обычных) дифференцируемых функций:

      $overset{displaystyleepsilon}{nabla} (f_n overset{displaystyleepsilon}{*}g_n) = overset{displaystyleepsilon}{nabla} f_n overset{displaystyleepsilon}{*}g_n + f_n overset{displaystyleepsilon}{*}overset{displaystyleepsilon}{nabla} g_n$

    • при стремлении $epsilon rightarrow 0$ (шаг решетчатой функции) эпсилон-произведение стремится к обычному произведение $F(x)G(x)$, где $F(x)$ и $G(x)$ соответственно функции, к которым стремятся решетчатые функции $f_n$ и $g_n$ при $epsilon rightarrow 0$, то есть:

      $F(x) = limlimits_{epsilon rightarrow 0, kepsilon = x} f_k$
      $G(x) = limlimits_{epsilon rightarrow 0, kepsilon = x} g_k$

      Замечание

      Позже будет показано что $F(x)$ и $f_n$, а также $G(x)$ и $g_n$ являются попарно эпсилон-сопряженными

  • Вводим эпсилон-ряд Тейлора. Он будет аналогичен обычному ряду Тейлора, но произведение, возведение в степень и производные должны быть заменены на эпсилон-произведение, эпсилон-степень и эпсилон-производные:

    $f_k=f_0+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{1}}}{1!}{foverset{displaystyleepsilon}{'}}_0+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{2}}}{2!}{f^{overset{displaystyleepsilon}{(2)}}}_0+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{3}}}{3!}{f^{overset{displaystyleepsilon}{(3)}}}_0+ldots+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{k}}}{k!}{f^{overset{displaystyleepsilon}{(k)}}}_0 $

  • Введение эпсилон-ряда Тейлора позволяет нам ввести эпсилон-функции, аналогичные аналитическим функциям (например, эпсилон-тригонометрические функции). Для этого потребуем, чтобы эпсилон-производные в нуле (всех порядков) для этих эпсилон-функций равнялись производным в нуле (справа) для обычных функций. Для обозначения эпсилон-функции мы будем добавлять приставку $epsilon$. Так, например, для эпсилон-экспоненты получим:

    $epsilon exp(kepsilon)=1+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{1}}}{1!}+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{2}}}{2!} +displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{3}}}{3!}+ldots+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{k}}}{k!}$

  • Введем понятие эпсилон преобразования. Суть этого преобразования заключается в замене всех операций (производная, умножение, возведение в степень) на эпсилон-операции а всех функций на эпсилон-функции. При данном преобразовании тождества будут сохраняться. Так, например, для эпсилон-тригонометрических функций все тождества будут аналогичны обычным тригонометрическим тождествам. Например,

    $epsilon cos^{overset{displaystyleepsilon}{2}}(kepsilon) +epsilon sin^{overset{displaystyleepsilon}{2}}(kepsilon) = 1$

    Если эпсилон преобразование обозначить через $overset{displaystyleepsilon}{rightarrow}$, то этот факт можно записать, как

    $cos^2(x) + sin^2(x) = 1$ $overset{displaystyleepsilon}{rightarrow}$ $epsilon cos^{overset{displaystyle epsilon}{2}}(kepsilon) +epsilon sin^{overset{displaystyleepsilon}{2}}(kepsilon) = 1$

    Эпсилон-функцию мы также будем называть эпсилон-образом. Так эпсилон-косинус является эпсилон-образом косинуса. При этом сам косинус является эпсилон-прообразом для эпсилон-косинуса. При этом эти две функции (например, эпсилон-косинус и косинус) являются эпсилон-сопряженными.

  • Соответственно, обратное эпсилон-преобразование — это преобразование обратное (прямому) эпсилон-преобразованию. Будем обозначать его, как $overset{displaystyleepsilon}{leftarrow}$.
  • Таким образом, через прямые и обратные эпсилон-преобразования мы устанавливаем соответствие между дифференциальными уравнениями (ДУ) (в том числе и нелинейными) и рекуррентными соотношениями (РС).

    Теперь для решения нелинейных дифференциальных уравнений мы можем применить следующую схему:

    ДУ $overset{displaystyleepsilon}{rightarrow}$ РС $rightarrow$ $f_n $(решение РС) $overset{displaystyleepsilon}{leftarrow}$ $ F(x)$ (решение ДУ)

    То есть, мы делаем эпсилон-преобразование исходного ДУ, получаем РC, решаем его и делаем обратное эпсилон-преобразование, получая таким образом решение дифференциального уравнения. Важно понимать, что таким образом будут найдены лишь решения, являющиеся функциями, аналитическими справа от нуля. Это тот же подход, что применяется при решении, например, линейных дифференциальных уравнений с помощью преобразований Лапласа.

  • Аналогично, рекуррентные уравнения можно привести к дифференциальным и решать их соответствующими методами. В этом случае мы имеем следующую схему:

    РC $overset{displaystyleepsilon}{leftarrow}$ ДУ $rightarrow$ $ F(x)$ (решение ДУ) $overset{displaystyleepsilon}{ rightarrow}$ $f_n$ (решение РC)

  • Также легко можно ввести и дополнительные операции, и преобразования, например, эпсилон-интегрирование и эпсилон-преобразование Лапласа
  • В статье приводятся три примера
    • решение линейного дифференциального уравнения гармонических колебаний
    • решение нелинейного дифференциального уравнения (Бесселя)
    • решение линейного рекуррентного уравнения (формула для чисел Фибоначчи)
  • При стремлении $epsilon rightarrow 0$ (шаг решетчатой функции) эпсилон-функции и эпсилон-операторы стремятся к своим прообразам. Так, например, при стремлении $epsilon rightarrow 0$ эпсилон произведение стремится к обычному произведению, эпсилон-производная — к обычной производной,… эпсилон-косинус — к обычному косинусу, эпсилон-синус к обычному синусу… Это значит, что обратное эпсилон-преобразование может быть выполнено обычным стремлением $epsilon rightarrow 0$. Этот факт позволяет нам рассматривать дифференциально-интегральные уравнения (в том числе и нелинейные) с решениями аналитическими справа от нуля, как предельный случай рекуррентных уравнений с шагом $epsilon rightarrow 0$.
  • Это наводит на мысль о том, а не является ли эпсилон-умножение «истинным» умножением (во всяком случае в некоторых случаях) в нашем физическом мире? Так, например, рассмотрим одномерное уравнение Шредингера:

    $ihbarfrac{partial}{partial t}Psi(x,t)=-frac{hbar^2}{2m}frac{partial^2}{partial x^2}Psi(x,t) + U(x,t )Psi(x,t)$

    Это уравнение предполагает непрерывность пространства времени и возможность бесконечно малой величины $Delta x$ и $Delta t$ (что заложено в том факте, что мы используем дифференцирование), что в случае квантовой механики подразумевает бесконечную энергию, что невозможно.

    Но давайте рассмотрим эпсилон-преобразование этого уравнения (заменив производные на эпсилон-производные, функции на решетчатые эпсилон-функции, произведение — на эпсилон-произведение, …). При достаточно малом $epsilon$ мы получим решения очень близкие к тем, которые мы бы получили при решении изначального уравнения Шредингера. При этом естественным образом вводится дискретность пространства-времени, что устраняет проблему бесконечной энергии.

  • Это в свою очередь ставит вопрос о том, как можно проверить, а какое же умножение является «истинным» в нашем физическом мире, обычное или эпсилон-умножение? Возможно ли поставить мыслительный или физический эксперимент для ответа на этот вопрос?

Далее каждый из этих пунктов рассматривается более детально

Решетчатые функции и эпсилон-производная

Решетчатая функция и множество $A^epsilon$

Решетчатые функции — это функции, определенные на дискретном множестве действительных чисел с постоянным шагом. Мы будем рассматривать только функции, определенные на множестве ${0,epsilon,2epsilon,3epsilon,ldots}$, где $epsilon in R$, $epsilon>0$» data-tex=»inline»></math>. Так, например, такой функцией будет <math><img decoding=, где $k$ — целое неотрицательное число. При этом $epsilon = 0.1pi$. Будем обозначать множество таких функций через $A^epsilon$. Все решетчатые функции, которые мы будем рассматривать ниже будут принадлежать этому множеству $A^epsilon $.

Пример решетчатой функции $in A^epsilon $

Функция $cos(0.1kpi)$, где $k in N_0$:

Эпсилон-производная

Будем называть эпсилон-производной функции $f in A^epsilon$ в $k$ следующую величину:

$foverset{displaystyleepsilon}{'}_k = overset{displaystyleepsilon}{nabla}{f_k} = (f_{k+1} - f_k)/epsilon$

Соответственно, функцию, значение которой в $k$ для любого $k$ равно эпсилон-производной функции $f_n $ в $k$, мы будем называть эпсилон-производной функции $f_n$ и обозначать как $f_noverset{displaystyleepsilon}{'}$ (или просто $foverset{displaystyleepsilon}{'}$).

Очевидно, что функция $f^{overset{displaystyleepsilon}{'}}in$ $A^epsilon$ и поэтому по отношению к ней можно еще раз применить эпсилон дифференцирование, и т.д. Мы будем обозначать символом $^{overset{displaystyleepsilon}{(n)}}$ $n$$epsilon$-производную функции. По индукции легко доказывается, что

$f^{overset{displaystyleepsilon}{(n)}}_k=displaystylefrac{1}{epsilon^n}sumlimits_{j=0}^{n}C_{n}^{j}f_{k+j}(-1)^{n-j}$

Эпсилон-интегрирование

Процедуру, обратную эпсилон-дифференцированию, назовем соответственно эпсилон-интегрированием. Функцию $g_nin A^epsilon$, значение которой в $k$ для любого $k$

$g_k=epsilonsumlimits^{k-1}_{i=0}f_i+C$

будем называть эпсилон-первообразной функции $f$.

Эпсилон производная произведения

К сожалению, эпсилон-производная не обладает свойствами обычной производной. Так, например, очевидно, что в общем случае

$(f_n g_n)^{overset{displaystyleepsilon}{'}} = f_n^{overset{displaystyleepsilon}{'}}g_n+g_n^{overset{displaystyleepsilon}{'}}f_n +epsilon f_n^{overset{displaystyleepsilon}{'}} g_n^{overset{displaystyleepsilon}{'}}neq f_n^{overset{displaystyleepsilon}{'}}g_n+g_n^{overset{displaystyleepsilon}{'}}f_n $

Часть $epsilon f_n^{overset{displaystyleepsilon}{'}} g_n^{overset{displaystyleepsilon}{'}}$ отличает эту «производную» от обычной производной произведения дифференцируемых функций. В случае решения численными методами нелинейных дифференциальных уравнений это дает дополнительную погрешность в вычислениях.

Замечание

Это дополнительное слагаемое приводит также, в частности, к тому, что мы не можем применить обычную формулу Тейлора для разложения решетчатой функции в ряд

Теперь давайте представим, что у нас не было бы этого дополнительного члена. Чтобы нам это могло дать?

По крайней мере, мы могли бы применять некоторые методы решения дифференциальных уравнений для решения рекуррентных уравнений (уравнений с функциями из множества $A^epsilon $). Например, мы имели бы разложение в ряд Тейлора, мы смогли бы пользоваться интегрированием (эпсилон-интегрированием) по частям, применять преобразования (эпсилон-преобразование) Лапласа. Но в действительности все даже интереснее, и этому и посвящена данная статья.

Но как избавиться от этого дополнительного элемента? Мы можем создать, например, другое умножение (эпсилон-умножение).

Базовая задача

Это именно та задача, следствием решения которой и является вся эта статья.

Мы хотим найти такую формулу для эпсилон-произведения $p_k=(fdisplaystyleoverset{displaystyleepsilon}{*}{g})_k$, чтобы удовлетворялись следующие требования:

  • выполнялись бы свойства обычного умножения, такие, как коммутативность, ассоциативность, дистрибутивность, существование единицы (единственной) и нулевого элемента (единственного)
  • для эпсилон-производной эпсилон-произведения решетчатых функций мы должны иметь ту же формулу, что и для производной произведения (обычных) дифференцируемых функций, то есть

    $overset{displaystyleepsilon}{nabla} (f_n overset{displaystyleepsilon}{*}g_n) = overset{displaystyleepsilon}{nabla} f_n overset{displaystyleepsilon}{*}g_n + f_n overset{displaystyleepsilon}{*}overset{displaystyleepsilon}{nabla} g_n $

  • при стремлении $epsilon rightarrow 0$ (шаг решетчатой функции) эпсилон-произведение должно стремиться к обычному произведение $F(x)G(x)$, где $F(x)$ и $G(x)$ соответственно функции, к которым стремятся решетчатые функции $f_n$ и $g_n$ при $epsilon rightarrow 0$, то есть:

    $F(x) = limlimits_{epsilon rightarrow 0, kepsilon = x} f_k$
    $G(x) = limlimits_{epsilon rightarrow 0, kepsilon = x} g_k $

Эпсилон-умножение

Всем этим свойствам удовлетворяет функция $p_k$, определяемая как (все три формулы эквивалентны):

$p_k=(fdisplaystyleoverset{displaystyleepsilon}{*}{g})_k=(epsilon({{overset{displaystyleepsilon}{nabla}}_{f}}+{{overset{displaystyleepsilon}{nabla}}_{g}})+{overset{wedge}{I}})^k (f g)|_0$

$p_k = (fdisplaystyleoverset{displaystyleepsilon}{*}{g})_k=sum_{j=0}^{k}C_{k}^{j}sum_{i=0}^{j}C_{j}^{i}{f^{overset{displaystyleepsilon}{(i)}}}|_0{g^{overset{displaystyleepsilon}{(j-i)}}}|_0$

$p_k=(fdisplaystyleoverset{displaystyleepsilon}{*}{g})_k=sum_{j+i+l=k}C_k^{j,i}f_ig_j(-1)^{l}$,
где $C_{k}^{j,i}$ — биномиальный коэффициент Ньютона: $C_{k}^{j,i}=displaystylefrac{k!}{j!i!l!}$, ($l+j+i=k$)

Замечание

Чтобы не перегружать статью мы не будем приводить доказательства, но первые два свойства доказываются легко, последнее — не так очевидно

Чтобы немного освоиться с новым произведением, рассмотрим несколько примеров.

Пример 1. (умножение на число)

Если для некоторой функции $f_nin A^{epsilon}$ все элементы $f_k = lambda$, где $lambda$ — любое действительное число, то для любой функции $g_k in A^{epsilon}$ элементы эпсилон-произведения $p =fdisplaystyleoverset{displaystyleepsilon}{*}g$ равны $p_k = lambda g_k$.

Это легко можно увидеть из первой формулы эпсилон-умножения.

Как результат мы получаем, что единичным элемент эпсилон-умножения является функция $f_n in A^epsilon $ все элементы которой равны 1, а нулевым элементом — со всеми элементами равными 0.

Пример 2. (эпсилон степень)

Из определения эпсилон-произведения легко найти эпсилон-степень $f_k = (kepsilon)^{overset{displaystyleepsilon}{i}}$, которая является эпсилон-аналогом (в следующей главе будет введено определение эпсилон-образа) функции $F(x) = x^i$:

$x^{overset{displaystyleepsilon}{i}} = (kepsilon)^{overset{displaystyleepsilon}{i}}=i!C_k^iepsilon^i$

Таким образом получаем, что эпсилон-аналог (далее будет введено понятие эпсилон-образа) функции $x^i=(kepsilon)^i$ является функция $i!C_k^iepsilon^i$

Так, например,

$x^{overset{displaystyleepsilon}{2}} = (kepsilon)^{overset{displaystyleepsilon}{2}}=k(k-1)epsilon^2$

$x^{overset{displaystyleepsilon}{3}} = (kepsilon)^{overset{displaystyleepsilon}{3}}=k(k-1)(k-2)epsilon^3$

Очевидно, что $(kepsilon)^{overset{displaystyleepsilon}{i}}$ равна нулю для $i>k$» data-tex=»inline»></math></p>
<p>Теперь формула для эпсилон-производных эпсилон-степени находится в полном соответствии с обычной производной обычной степени, так например, <math><img decoding=

Замечание

В последней формуле пропущено $epsilon$, что не является проблемой, т.к. $epsilon$ может быть любым ($epsilon >0$» data-tex=»inline»></math>, <math><img decoding=), в том числе и 1. Конечно, мы не должны забывать про $epsilon$, если исследуется зависимость от него, например, при $epsilon to 0 $

Эпсилон-ряд Тейлора

Теперь мы имеем полный аналог разложения Тейлора:
$ f_k=f_0+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{1}}}{1!}{foverset{displaystyleepsilon}{'}}_0+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{2}}}{2!}{f^{overset{displaystyleepsilon}{(2)}}}_0+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{3}}}{3!}{f^{overset{displaystyleepsilon}{(3)}}}_0+ldots+displaystylefrac{(kepsilon)^{overset{displaystyleepsilon}{k}}}{k!}{f^{overset{displaystyleepsilon}{(k)}}}_0 $

Будем называть этот ряд эпсилон-рядом Tейлора, а само разложение — эпсилон-разложением в ряд Tэйлора.

Эпсилон преобразование

Определение. (Эпсилон преобразование)

Пусть $exists x_0 >0$» data-tex=»inline»></math> такое, что на множестве <math><img decoding= ряд Tэйлора функции $F(x)$ в правой окрестности нуля сходится к самой функции. Тогда функцию $F(x)$ мы будем называть аналитической функцией в нуле справа. Тогда функции $F$ и $fin A^epsilon$ будем называть эпсилон-сопряженными, если для любого целого или нулевого $i$ $i$-ая производная справа функции $F$ в нуле равняется $i$-ой эпсилон-производной функции $f$ в нуле.
$F^{(i)}|_{+0}=f^{overset{displaystyleepsilon}{(i)}}_0, forall i in N_0$

Функцию $f$ тогда будем называть эпсилон-образ $F$ или в случае, если эта функция имеет название (например, cos), то будем называть просто эпсилон-‘название функции’ (например, эпсилон-косинус) и обозначать как $epsilon$»обозначение функции» ($epsilon$cos). Функцию $F$ будем называть эпсилон-прообраз функции $f$.

Пример 1. (Эпсилон-экспонента)

Найдем формулу для эпсилон-экспоненты, которую мы в соответствии с оговоренным правилом будем обозначать $epsilon{exp}$. Пусть $sigma$ произвольное комплексное число. Найдем функцию эпсилон-сопряженную функции $exp(sigma x)$

$epsilon exp(sigma x)_k=1+C_k^1sigma epsilon+C_k^2(sigma epsilon)^2+ldots+C_k^k(sigmaepsilon)^k=(1+sigma epsilon)^k$

Заметим, что $(1+ sigma x/k)^koverset{ktoinfty}{to}exp(sigma x)$

При этом очевидно, что $epsilon = x/k to 0$, поэтому предыдущее равенство мы будем записывать в виде (хотя эта запись и не совсем корректна):

$epsilon exp(sigma x) overset{epsilonto 0}{to} exp(sigma x) $

Такой вид записи мы будем использовать и для других эпсилон-функций.

Пример 2. (Эпсилон-косинус, эпсилон-синус)

Найдем формулу для эпсилон-косинуса и эпсилон-синуса.
Пусть $lambda$ — действительное число. Tогда

$epsilon{cos(lambda x)}_k=frac{1}{2}((1+ilambdaepsilon)^k+(1-ilambdaepsilon)^k)$

$epsilon{cos(lambda x)}overset{epsilonto0}{to}cos{(lambda x)}$

$epsilon{sin(lambda x)}_k=frac{1}{2i}((1+ilambda epsilon)^k-(1-ilambda epsilon)^k)$

$epsilon{sin(lambda x)}overset{epsilonto0}{to}sin{(lambda x)}$

Пример 3. (Эпсилон-умножение на икс в эпсилон-степени)

Найдем эпсилон-ряд Тейлора для

$f_n overset{displaystyle epsilon}{*} x^{overset{displaystyleepsilon}{lambda}}$

где $lambda$ — неотрицательное целое число

Найдем производные в нуле справа для функции $x^lambda F(x)$

$(x^lambda F(x))^{(n)}|_{x = 0} = sumlimits_{j=0}^{infty}C^j_n (x^lambda)^{(j)}F^{(n-j)}(x) |_{x = 0} = C_n^lambda lambda! F^{(n-lambda)}(x) |_{x = 0} $

Тогда эпсилон-ряд Тейлора для эпсилон-сопряженной функции можно записать как

$f_n overset{displaystyle epsilon}{*} x^{overset{displaystyleepsilon}{lambda}} = f_{n - lambda } x^{overset{displaystyleepsilon}{lambda}} $

В дальнейшем будет показано, что эта формула справедлива также и для отрицательных целых $lambda$, что значит, что эта формула справедлива для любых целых $lambda$

Эпсилон-преобразования операций

В данной таблице и в следующей функции $F(x)$ и $f_n$, а также $G(x)$ и $g_n$ — попарно эпсилон-сопряженные, то есть

$F(x) overset{epsilon}to f_n$
$G(x) overset{epsilon}to g_n$

Тогда операции преобразовываются (в результате эпсилон-преобразования) следующим образом:

$F(x) equiv G(x)$ $overset{epsilon} {to}$ $f_n equiv g_n$

$F(x) + G(x)$ $overset{epsilon} {to}$ $f_n + g_n$

$F(x) G(x)$ $overset{epsilon} {to}$ $f_n displaystyleoversetepsilon{*} g_n$

$F'(x) $ $overset{epsilon} {to}$ $f displaystyleoversetepsilon{'}_n$

$int F(x)dx$ $overset{epsilon} {to}$ $epsilonsumlimits^{k-1}_{i=0}f_i$ (эпсилон-первообразная)

Эпсилон-преобразование некоторых аналитических функций

$F(x) equiv lambda$ $overset{epsilon} {to}$ $f_n equiv lambda$

$lambda F(x)$ $overset{epsilon} {to}$ $lambda f_n$

$x^i$ $overset{epsilon} {to}$ $(kepsilon)^{overset{displaystyleepsilon}{i}}=i!C_k^iepsilon^i$

$exp(lambda x)$ $overset{epsilon} {to}$ $epsilon exp(lambda x)_k=(1+lambda epsilon)^k$

$cos(lambda x)$ $overset{epsilon} {to}$ $epsilon{cos(lambda x)}_k=frac{1}{2}((1+ilambdaepsilon)^k+(1-ilambdaepsilon)^k)$

$sin(lambda x)$ $overset{epsilon} {to}$ $epsilon{sin(lambda x)}_k=frac{1}{2i}((1+ilambda epsilon)^k-(1-ilambda epsilon)^k)$

$(1 + lambda x)^{-1}$ $overset{epsilon} {to}$ $(1+lambda x)^{overset{displaystyleepsilon}{-1}}=1-lambda x +lambda^2 x^{overset{displaystyleepsilon}{2}}-lambda^3x^{overset{displaystyleepsilon}{3}}+...$ (для $|lambda x| < 1$)

Разложение в эпсилон-ряд Тейлора

$f_k = (1 + epsilon overset{epsilon}{nabla})^k f|_{k=0}=f_0+displaystylefrac{(epsilon k)^{overset{displaystyleepsilon}{1}}}{1!}{foverset{displaystyleepsilon}{'}}_0+displaystylefrac{(epsilon k)^{overset{displaystyleepsilon}{2}}}{2!}{f^{overset{displaystyleepsilon}{(2)}}}_0+displaystylefrac{(epsilon k)^{overset{displaystyleepsilon}{3}}}{3!}{f^{overset{displaystyleepsilon}{(3)}}}_0+ldots+displaystylefrac{(epsilon k)^{overset{displaystyleepsilon}{k}}}{k!}{f^{overset{displaystyleepsilon}{(k)}}}_0$

Эта формула становится очевидной, если мы заметим, что оператор $(1 + epsilon overset{epsilon}{nabla})^i$ является оператором смещения на $i$ шагов:

$(1 + epsilon overset{epsilon}{nabla})^i f_k = f_{k+i}$

Эпсилон-преобразование Лапласа

Мы можем также ввести эпсилон-преобразование Лапласа и пользоваться им также, как и обычным преобразованием Лапласа но применительно к решетчатым функциям $in A^epsilon$, но это выходит за рамки целей данной статьи.

Примеры эпсилон-преобразований для тригонометрических формул

В силу вышесказанного мы можем записать, например, аналоги тригонометрических формул

${epsilon{cos(x)}}^{overset{displaystyleepsilon}{2}}+{displaystyleepsilon{sin(x)}}^{overset{displaystyleepsilon}{2}}equiv 1$

${epsilon{cos(x)}}{overset{displaystyleepsilon}{'}}equiv-epsilon{sin(x)}$

${epsilon{sin(x)}}{overset{displaystyleepsilon}{'}}equivepsilon{cos(x)}$

${epsilon{cos(alpha+beta)}}equiv{epsilon{cos(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{cos(beta)}}-{epsilon{sin(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{sin(beta)}}$

${epsilon{cos(alpha-beta)}}equiv{epsilon{cos(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{cos(beta)}}+{epsilon{sin(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{sin(beta)}}$

${epsilon{sin(alpha+beta)}}equiv{epsilon{sin(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{cos(beta)}}+{epsilon{cos(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{sin(beta)}}$

${epsilon{sin(alpha-beta)}}equiv{epsilon{sin(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{cos(beta)}}-{epsilon{cos(alpha)}}displaystyleoverset{displaystyleepsilon}{*}{epsilon{sin(beta)}}$

Но все же эпсилон-косинус и эпсилон-синус не обладают в отличии от обычного косинуса и синуса одной важной чертой — они не периодичны. Действительно,

$epsilon{cos(omega t)}_k=frac{1}{2}((1+iomega epsilon)^k+(1-iomega epsilon)^k)=left({sqrt{1+(omega epsilon)^2}}right)^k cos{(k(arctg(omega epsilon)))}$

$epsilon{cos(omega t)}_{frac{t}{epsilon}}=left({{1+omega^2 epsilon^2}}right)^{frac{t}{2epsilon}}cos{(t displaystyle frac{arct(omega epsilon)}{ epsilon})}$

Также
$epsilon{sin(omega t)}_{frac{t}{epsilon}}=left({{1+omega^2 epsilon^2}}right)^{frac{t}{2epsilon}}sin{(t displaystyle frac{arctg(omega epsilon)}{ epsilon})}$

при этом функции $sin( t(arctg(omega epsilon)/epsilon))$ и $cos(t(arctg(omegaepsilon/)epsilon))$ — периодические функции с периодом $2piepsilon/arctg(omega epsilon)$. Поэтому функции $epsilon{cos(x)}$ и $epsilon{sin(x)}$ — не периодические функции, с нулями в точках $(pi/2+pi n)epsilon/arctg(omega epsilon)$ и $pi nepsilon/arctg(omega epsilon)$ соответственно, при этом »размах» между минимумами и максимумами при увлечении $t$ возрастает как $({1+omega^2epsilon^2})^{frac{t}{2epsilon}}$.

Замечание

Соответственно для эпсилон-экспоненты имеем

$epsilon{exp(iomega t)}_{frac{t}{epsilon}}=left({{1+omega^2 epsilon^2}}right)^{frac{t}{2epsilon}}exp{(i displaystyle frac{arctg(omega epsilon)}{ epsilon}t)}$

Примеры решения дифференциальных уравнений методом эпсилон-отображения

Пример 1. Гармонические колебания

Давайте начнем с решения линейных дифференциальных уравнений и в качестве примера возьмем уравнение гармонических колебаний:

$F^{''}(t) + omega^2 F(t) = 0 $

Распишем процедуру решения по шагам.

Шаг 1. (Эпсилон преобразование)

$epsilon^2 f^overset{displaystyleepsilon}{(2)} + epsilon^2omega^2 f = f_{k+2} - 2f_{k+1} + (1+ epsilon^2omega^2)f_{k} = f_{k+2} - 2f_{k+1} + lambda f_{k}equiv 0$

Где $lambda = 1+epsilon^2 omega^2$.

Получили рекуррентное уравнение.

Далее, в зависимости от того, хотим ли мы найти приблизительное решение численными методами или хотим найти точное аналитическое решение, последовательность шагов может быть разной.

Если мы ищем точное решение, выраженное формулой, то последовательность шагов может быть следующей.

Шаг 2. Аналитическое решение. (Эпсилон-производные функций в нуле всех порядков)

Находим формулу для $n$-ой эпсилон-производной для нашего рекуррентного выражения и находим рекуррентное выражение для всех эпсилон-производных в нуле.

$(f^{overset{displaystyleepsilon}{(2)}}+ omega^2 f)^{overset{displaystyleepsilon}{(n)}} = f^{overset{displaystyleepsilon}{(n+2)}} + omega^2 f^{overset{displaystyleepsilon}{(n)}} equiv 0$

Берем значение в нуле

$f^{overset{displaystyleepsilon}{(n+2)}}|_0 + omega^2 f^{overset{displaystyleepsilon}{(n)}}|_0 = 0$

Шаг 3. Аналитическое решение. (Коэффициенты ряда Тейлора)

Заметим, что $f_0 = F(0)$, $(f_1 - f_0)/epsilon = F'(t)|_{t=0}$.

Будем для определенности считать, что начальное смещение $F(0) = 0$, а начальная скорость $F'(0) = 1$. Тогда имеем:

$f^{overset{displaystyleepsilon}{(2k)}}|_0 = 0$

$f^{overset{displaystyleepsilon}{(2k+1)}}|_0 = (-1)^komega^{2k}$

Шаг 4. Аналитическое решение. (Ряд Тейлора для искомой функции)

Но тогда

$F(x) = sumlimits_{k=0}^{infty} (-1)^kdisplaystyle{frac{omega^{2k}t^{2k+1}}{(2k+1)!}} = displaystylefrac{1}{omega}sin(omega t)$

Если же мы хотим решать численным методом (приблизительное решение), то

Шаг 2. Численное решение. (Находим значения $f_k$)

Замечание

Для наглядности в данном примере мы будем сохранять $epsilon$ и $lambda$ в наших формулах, но в реальном численном расчёте вместо $lambda$ должно быть подставлено его численное значение, а вместо $epsilon$ может быть подставлено любое положительное число $in R$, например, $epsilon = 1$

Решаем последовательно для значений $k$, начиная с 0. Чем больше значений будет найдено, тем больше коэффициентов ряда Тейлора нам будет известно, и, соответственно, тем точнее будет результат.

Для определенности, как и в предыдущем случае, будем считать, что начальное смещение $F(0) = 0$, а начальная скорость 1. Имеем:

$f_0 = 0$

$f_1 = epsilon$

$f_2 = 2f_1 - lambda f_0 = 2epsilon$

$f_3 = 2f_2 - lambda f_1 = epsilon(4 -lambda)$

$f_4 = 2f_3 - lambda f_2 = 2epsilon(4 -lambda) -2 epsilonlambda = epsilon(8 - 4lambda)$

$f_5 = 2f_4 - lambda f_3 = epsilon(2(8 -4lambda) -lambda (4- lambda)) = epsilon(lambda^2 - 12lambda +16)$

Шаг 3. Численное решение. (Эпсилон-производные в нуле)

$f_0 = 0$

$f^overset{displaystyleepsilon}{'}|_0 = (f_1 -f_0)/epsilon = 1$

$f^overset{displaystyleepsilon}{(2)}|_0 = f_2 - 2f_1 +f_0 = 0$

$f^overset{displaystyleepsilon}{(3)}|_0 =epsilon(f_3 -3f_2 + 3f_1 - f_0)/epsilon^3 = (4 - lambda - 6 + 3 - 0)/epsilon^2 = (1 - lambda)/epsilon^2 = - omega^2$

$f^overset{displaystyleepsilon}{(4)}|_0 =(f_4 - 4f_3 +6f_2 - 4f_1 + f_0)/epsilon^4 = (8 - 4lambda - 4(4-lambda) + 12 - 4)/epsilon^3 = 0$

$f^overset{displaystyleepsilon}{(5)}|_0 = ... = omega^4$

Шаг 4. Численное решение. (Ряд Тейлора для искомой функции)

Имея необходимое для точности наших вычислений количество (или все, если получилось найти аналитическую формулу) эпсилон производных в нуле, мы можем построить ряд Тейлора для эпсилон-сопряженной функции, что и будет решением:

$F(x) = f_0 + displaystylefrac{f^{overset{displaystyleepsilon}{(1)}}|_0}{1!}x + displaystylefrac{f^{overset{displaystyleepsilon}{(2)}}|_0}{2!}x^2 + displaystylefrac{f^{overset{displaystyleepsilon}{(3)}}|_0}{3!}x^3 + displaystylefrac{f^{overset{displaystyleepsilon}{(4)}}|_0}{4!}x^4 + displaystylefrac{f^{overset{displaystyleepsilon}{(5)}}|_0}{5!}x^5 + ... $

Подставляя значения эпсилон производных для нашего случай получим

$F(x) = t - displaystylefrac{omega^2}{3!}t^3 + displaystylefrac{omega^4}{5!}t^5 + ...$

Таким образом мы можем с точностью до любого члена разложения в ряд Тейлора найти нашу искомую функцию.

Замечание

В данном случае, конечно, не было особого смысла использовать эпсилон-преобразование, и мы привели это лишь, как пример, чтобы продемонстрировать подход

Пример 2. Уравнение Бесселя

Теперь давайте применим этот метод для решения для чего-то более интересного. Рассмотрим нелинейное дифференциальное уравнение, например, уравнения Бесселя.

$x^2F''+xF'+(x^2-mu^2)Fequiv 0$

Шаг 1. (Эпсилон преобразование)

$x^{overset{displaystyleepsilon}{2}}overset{displaystyleepsilon}{*}f^{overset{displaystyleepsilon}{(2)}}+xoverset{displaystyleepsilon}{*}f^{overset{displaystyleepsilon}{(1)}}+(x^{overset{displaystyleepsilon}{2}}-mu^2)overset{displaystyleepsilon}{*}fequiv0$

$x^{overset{displaystyleepsilon}{2}}f_{n-2}^{overset{displaystyleepsilon}{(2)}}+xf_{n-1}^{overset{displaystyleepsilon}{(1)}}+x^{overset{displaystyleepsilon}{2}}f_{n-2}- mu^2 fequiv0$

Шаг 2. Аналитическое решение. (Эпсилон-производные функций в нуле)

Будем считать $epsilon =1$

Берем $n$-ую эпсилон-производную в нуле. Получаем формулу

$2displaystylefrac{n(n-1)}{2!}f_0^{overset{displaystyleepsilon}{(n)}}+nf_0^{overset{displaystyleepsilon}{(n)}}+2frac{n(n-1)}{2!}f_0^{overset{displaystyleepsilon}{(n-2)}}-mu^2f_0^{overset{displaystyleepsilon}{(n)}} =0$

$(n^2-mu^2)f_0^{overset{displaystyleepsilon}{(n)}}=-n(n-1)f_0^{overset{displaystyleepsilon}{(n-2)}}$

Шаг 3. Аналитическое решение. (Коэффициенты ряда Тейлора)

Будем последовательно находить значения эпсилон-производных $f$ в нуле:

$mu^2f_0 = 0$

$f^{overset{displaystyleepsilon}{(1)}}= f_0displaystylefrac{mu^2}{1 - mu^2}$

$f^{overset{displaystyleepsilon}{(2)}}= - f_0displaystylefrac{2}{(4-mu^2)}$

$f_0^{overset{displaystyleepsilon}{(n)}}=- f_0^{overset{displaystyleepsilon}{(n-2)}}displaystylefrac{n(n-1)}{n^2-mu^2}$

Пусть $b_n$$n$-ый коэффициент эпсилон-ряда Тейлора. Тогда предыдущее равенство можно записать в виде

$b_n =- displaystylefrac{b_{n-2}}{n^2-mu^2}$

Мы видим, что если $mu$ не целое число и не 0, то все коэффициенты ряда Tейлора равны 0. Если $mu$ целое или ноль, то это говорит о том, что $mu$-тый коэффициент эпсилон-ряда Tейлора может быть не равен нулю и его выбор произволен и определяется требованиями нормировки. При этом для $n = 2k+mu$ коэффициенты эпсилон-ряда Тейлора также не равны 0, а для $n = 2k -1 +mu$ ($k$ — натуральное) — равны 0.

Найдем $2k+mu$ — ые коэффициенты эпсилон-ряда Тейлора.
Подставляя $2k + mu $ вместо $n$ получим

$b_{2k+mu} =- displaystylefrac{b_{2(k-1) +mu}}{4k(k+mu)}$

Тогда легко получить, что $2k+mu$-ый член разложения в эпсилон-ряд Tэйлора имеет вид

$b_{2k+mu}=Cdisplaystyle{frac{(-1)^k}{k!(k+mu)!2^{2k+mu}}}$

где $mu$-неотрицательное целое число, C-произвольное комплексное неравное нулю, определяемое требованиями нормировки

Шаг 4. Аналитическое решение. (Ряд Тейлора для искомой функции)

Тогда для неотрицательных целых $mu$, принимая $C = 1$ получим формулу

$F(x)=sum_limits{k=0}^{infty}{displaystyle{frac{(-1)^k}{k!(k+mu)!}left(frac{x}{2}right)^{2k+mu}}}$

что соответствует известной формуле функции Бесселя первого рода для целых, неотрицательных $mu$.

Для всех других решений — не существует разложения в ряд Tэйлора в нуле.

Пример 3. Числа Фибоначчи

Теперь рассмотрим, как можно решать рекуррентные уравнения с помощью эпсилон-преобразования.

Рассмотрим числа Фибоначчи, которые задаются следующим рекуррентным соотношением:

$f_{k+2}=f_k+f_{k+1}$,
при этом, $f_0=0$, $f_1=1$, откуда следует, что $f_0overset{displaystyleepsilon}{'}=1/epsilon$

Это можно записать как
$f_k+2epsilon f_k^{overset{displaystyle{epsilon}}{(1)}}+epsilon^2f_k^{overset{displaystyle{epsilon}}{(2)}}=f_k+f_k+epsilon f_k^{overset{displaystyle{epsilon}}{(1)}}$ или
$f-epsilon f^{overset{displaystyle{epsilon}}{(1)}}-epsilon^2f^{overset{displaystyle{epsilon}}{(2)}}=0$

Будем считать, что $epsilon=1$. Tогда получим
$f-f^{overset{displaystyle{epsilon}}{(1)}}-f^{overset{displaystyle{epsilon}}{(2)}}=0$,

при этом $f_0=0$ и $f_0overset{displaystyleepsilon}{'}=1$

Шаг 1. (Обратное эпсилон-преобразование)

Выполняя обратное эпсилон-преобразование получим
$F-F'-F''=0$
при этом $F(+0)=0$, $F'(+0)=1$

Шаг 2. (Решаем дифференциальное уравнение)

Мы можем решить это уравнение через преобразование Лапласа. Применим преобразование Лапласа. Получим

$p^2L(p)-0-1+p L(p)+0-L(p)=0$
$L(p)=displaystyle{frac{1}{(p^2+p-1)}}=displaystyle{frac{1}{(p_1-p_2)} left[frac{1}{p-p_1}-frac{1}{p-p_2}right]}$,

где $p_1$, $p_2$ — корни уравнения $p^2+p-1=0$ и соответственно равны:

$p_1=(-1+sqrt{5})/2$

$p_2=(-1-sqrt{5})/2$.

Но тогда $F(x)=displaystyle{frac{1}{sqrt{5}}}(exp{(p_1x)}-exp{(p_2x)})$.

Шаг 3. (Производим прямое эпсилон-преобразование)

Теперь запишем функцию, являющуюся эпсилон-образом $F$.

Это будет
$f_k=displaystyle{frac{1}{sqrt{5}}}(epsilon{exp{(p_1x)}}-epsilon{exp{(p_2x)}})=displaystyle{{frac{left((1+epsilonfrac{-1+sqrt{5}}{2})^k-left(-1+epsilonfrac{1-sqrt{5}}{2}right)^kright)}{sqrt{5}}}}$

Соответственно, при $epsilon=1$ получаем известную формулу

$f_k=displaystyle{{frac{left(left(frac{1+sqrt{5}}{2}right)^k-left(frac{1-sqrt{5}}{2}right)^kright)}{sqrt{5}}}}$

Свойства эпсилон-отображения при ε → 0

Обратное эпсилон-преобразование можно осуществить просто устремив $epsilon to 0$

Это можно сформулировать более строго в виде теоремы, которую я приведу без доказательства.

Теорема

Пусть функции $F$ и $f$ — эпсилон-сопряженные для любого $epsilon$. Тогда, при стремлении $epsilon to 0 $, при условии, что $kepsilon=const=ain(0,x_0)$ (где $x_0$ имеет тот же смысл, что и в определении эпсилон-отображения ), значение $f_k$ на множестве $(0,x_0)$ стремится к $F(a)$, то есть

$limlimits_{epsilon to0, kepsilon=a}f(kepsilon)=F(a)$

Не аналитические функции

деление на икс в эпсилон-степени

До сих пор мы говорили только об аналитических (справа от нуля) функциях.

Можно ли «расширить» этот подход и на другие функции?

В качестве примера, попробуем найти эпсилон-образ для функции $displaystylefrac{1}{x^lambda}$, где $lambda$ — натуральное число. Для этой функции нет разложения в ряд Тейлора в 0. Обозначим этот эпсилон-образ в соответствии с нашим подходом как $x^overset{displaystyleepsilon}{-lambda}$. Пусть

$g_n = x^overset{displaystyleepsilon}{-lambda} overset{displaystyleepsilon}{*} f_n$

Тогда

$x^{overset{displaystyleepsilon}{lambda}} overset{displaystyleepsilon}{*} g_n = f_n$

$x^{overset{displaystyleepsilon}{lambda}} overset{displaystyleepsilon}{*} g_n = x^overset{displaystyleepsilon}{lambda}g_{n-lambda} $

$g_{n-lambda} = f_n/x^overset{displaystyleepsilon}{lambda} =displaystylefrac {f_n}{n(n-1)..(n-lambda + 1)}$

$g_n = x^overset{displaystyleepsilon}{-lambda} overset{displaystyleepsilon}{*} f_n =displaystylefrac {n!f_{n + lambda}}{(n+lambda)!}$

Если $f_n = overset{wedge}{I}$, то получим, что

$x^overset{displaystyleepsilon}{-lambda} = displaystylefrac {n!}{(n+lambda)!}$, таким образом получаем, что

$x^overset{displaystyleepsilon}{lambda} = displaystylefrac {n!}{(n-lambda)!}$ для любого целого $lambda $ (а не только для $lambda in N_0$)

Эпсилон-произведение и дискретность пространства-времени

Все сказанное выше наводит на фундаментальный вопрос: a не является ли эпсилон-умножение «истинным» умножением в нашем физическом мире (по крайней мере там, где речь идет о пространстве или о времени)?

Рассмотрим, например, одномерное уравнение Шредингера:

$ihbarfrac{partial}{partial t}Psi(x,t)=-frac{hbar^2}{2m}frac{partial^2}{partial x^2}Psi(x,t) + U(x,t)Psi(x,t)$

Это уравнение предполагает непрерывность пространства-времени и возможность бесконечно малой величины $Delta x$ и $Delta t$ (это неявно принимается, если мы используем дифференцирование). Если говорить о времени, то это подразумевает бесконечную энергию, что противоречит современным представлениям о вселенной.

Чтобы не усложнять рассуждения, давайте рассмотрим случай когда $U$ не зависит от $t$. В этом случае $Psi(x,t)$ можно записать в виде:

$Psi(x,t) = psi(x)exp(-iEt/hbar)$

Но ведь $exp(-iEt/hbar)$ — это аналитическая функция, значит мы можем применить к ней наш подход, то есть мы можем сделать эпсилон-преобразование (относительно времени) нашего исходного уравнения Шредингера и мы получим

$ihbaroverset{displaystyleepsilon}{nabla}overset{displaystyleepsilon}Psi(x,t)=-frac{hbar^2}{2m}frac{partial^2}{partial x^2}overset{displaystyleepsilon}Psi(x,t) + U(x)overset{displaystyleepsilon}Psi(x,t)$

$overset{displaystyleepsilon}Psi(x,t) = psi(x)epsilon exp(-iEt/hbar)$

При этом

$overset{displaystyleepsilon}Psi(x,t) overset{epsilon to 0}{to}Psi(x,t)$

То есть при очень меленьком шаге времени (кванте времени) $epsilon$ не существенном для наших расчетов, мы не увидим разницы между решением (обычного) уравнения Шредингера и решением эпсилон-уравнения Шредингера.

Но тогда это значит, что мы не можем в действительности сказать, какое произведение является «истинным» («используется» природой) — наше обычное или эпсилон-произведение (с достаточно малым квантованием времени).

При этом в случае эпсилон-произведения (и соответственно эпсилон-уравнения Шредингера и его эпсилон-волнового решения), мы имеем очевидный плюс — квантование времени становится естественным, и мы не сталкиваемся с требованием бесконечной энергии. Фактически мы имеем все то же уравнение, с теми же решениями, но при этом естественным образом устраняем необходимость допущения непрерывности времени.

Замечание

Когда мы говорим о дискретности какой-либо измеряемой сущности, имеется ввиду то, что существуют четко отграниченные, неделимые элементы, из которых эта сущность состоит. Но когда мы говорим о дискретности пространства или о времени, то возможна также и иная интерпретация. Например, возможно, при достаточно малых значениях $Delta x ll delta_x$ или/и $Delta t ll delta_t $ уже нет смысла говорить о времени или о пространстве. Время и пространство, возможно, перестают существовать для этих величин. Таким образом мы получаем некие «размытое пятна» вместо точек, которые можно рассматривать как точки при $Delta x gg delta_x$ или/и $Delta t gg delta_t $. В данном случае нельзя выделить кванты, но также нельзя говорить и о непрерывности. Но даже в этом случае мы также можем использовать описанный здесь эпсилон-подход, предполагая, что $epsilon$ — это те минимальные $Delta x$ или/и $Delta t$, когда еще имеет смысл говорить о времени или/и пространстве (грубо говоря, это усредненный размер «пятна»).

Как проверить?

Итак, если время дискретно с «шагом» $epsilon$, а »истинным» умножением является эпсилон-умножение с шагом дискретности времени, то как это может проявиться? Можно ли поставить мысленный или реальный эксперимент и понять, какое произведение является «истинным» и какой шаг (квант) при этом используется?

Можно привести некоторые оценки, для понимания насколько сильно изменились бы наши представления о мире, если «истинным» было бы именно «эпсилон-умножение» (а не обычное умножение).

Вспомним, что

$epsilon{exp(iomega_0 t)}_{frac{t}{epsilon}}=left({{1+omega_0^2 epsilon^2}}right)^{frac{t}{2epsilon}}exp{(i displaystyle frac{arctg(omega_0 epsilon)}{ epsilon}t)}$

Тогда для $omega_0epsilon ll 1$ имеем:

  • частота будет отличаться от частоты синусоидального колебания $omega_0$ и будет равняться

    $omega = displaystyle frac{arctg(omega_0 epsilon)}{ epsilon} approx omega_0(1 - displaystylefrac{omega_0^2epsilon^2}{3})$

  • амплитуда будет расти как

    $(1+(omega_0epsilon)^2))^{frac{t}{2epsilon}} approx 1 + displaystylefrac{tomega^2_0epsilon}{2}$

Давайте грубо оценим, способны ли мы заметить это отличие?

Пример 1. Изменения за время жизни вселенной

Предположим, что наша временная дискретность сравнима с Планковским временем:

$t_p approx 10^{−43 }$ сек.

Время жизни вселенной:

$t_{u} approx 10^{17} $ сек.

Найдем для каких частот $omega_0$ за время жизни вселенной амплитуда колебаний могла измениться, например, на 0,5%.

$t_u t_pomega^2_0 = 10^{-2}$

$omega_0 = displaystylefrac{10^{-1}}{sqrt{t_ut_p}} = 10^{-1}10^{13} = 10^{12}$ рад/сек

Это значит, что для частот порядка 1 TГц (или для частиц с энергией $10^6$ эВ) за время жизни вселенной амплитуда (волновой функции) изменилась бы на порядка один процент (порядок). То есть понятно, что как минимум в обычной жизни мы никак не можем это увидеть.

Пример 2. Изменения за секунду

Давайте оценим во сколько раз изменится амплитуда волновой функции частицы с ультравысокой энергией порядка $ 10^{18}$ эВ за одну секунду.

$10^{18}$ эв по порядку соответствует $10^{24}$ Гц

$(1+(omega_0 t_p)^2))^{frac{1}{2t_p}} approx 10^{48}10^{-43} = 10 ^5$

То есть за секунду амплитуда волновой функции такой частицы увеличится в 100 тысяч раз (порядок).

Выглядит существенным. Но как это обнаружить? Дело в том, что физический смысл имеет не сама волновая функция, а $PsiPsi^*$, а в случае эпсилон-образа это будет $overset{epsilon}Psi displaystyleoverset{displaystyle epsilon}{*}overset{epsilon}Psi$. Но

$epsilon exp(-iEt/hbar) overset{displaystyleepsilon}{*} epsilon exp(iEt/hbar) = 1$

Что говорит о том, что как раз величина, которая имеет физический смысл меняться не будет, и данный подход не позволит нам ответить на поставленный вопрос.

 

Источник

дифференциальные уравнения, математика и физика, пространство-время, рекуррентные соотношения

Читайте также