Статистические последствия жирных хвостов. О новых вычислительных подходах к принятию решений

Содержание
1. Пролог*†
2. ГЛОССАРИЙ, ОПРЕДЕЛЕНИЯ И ОБОЗНАЧЕНИЯ
Часть I. ЖИРНЫЕ ХВОСТЫ И ИХ ПОСЛЕДСТВИЯ, ЗНАКОМСТВО
3. НЕТЕХНИЧЕСКИЙ ОБЗОР — ЛЕКЦИЯ В КОЛЛЕДЖЕ ДАРВИНА*‡
4. ОДНОМЕРНЫЕ ЖИРНЫЕ ХВОСТЫ УРОВНЯ 1, С КОНЕЧНЫМИ МОМЕНТАМИ†
5. УРОВЕНЬ 2: СУБЭКСПОНЕНЦИАЛЬНЫЕ И СТЕПЕННЫЕ ЗАКОНЫ
6. ЖИРНЫЕ ХВОСТЫ В ВЫСШИХРАЗМЕРНОСТЯХ†
A. ОСОБЫЕ СЛУЧАИ ТОЛСТЫХ ХВОСТОВ
Часть II. ЗАКОН СРЕДНИХ ЧИСЕЛ
7. ПРЕДЕЛЬНЫЕ РАСПРЕДЕЛЕНИЯ, КОНСОЛИДАЦИЯ*†
8. СКОЛЬКО НУЖНО ДАННЫХ? РАБОЧИЙ ПОКАЗАТЕЛЬ ЖИРНОХВОСТОСТИ‡
9. ЭКСТРЕМАЛЬНЫЕ ЗНАЧЕНИЯ И СКРЫТЫЕ ХВОСТЫ*‡
B. СКОРОСТЬ РОСТА И РЕЗУЛЬТАТ ПРИНАДЛЕЖАТ РАЗНЫМ КЛАССАМ РАСПРЕДЕЛЕНИЙ
C. ПРИНЦИП БОЛЬШОГО ОТКЛОНЕНИЯ, ВКРАТЦЕ
D. КАЛИБРОВКА В СИТУАЦИИ ПАРЕТО
10. ПЕЧАЛЬНО, НО ФАКТ: ДИАГНОСТИКА S&P 500‡
E. ПРОБЛЕМА С ЭКОНОМЕТРИКОЙ
F. ОСОБЕННОСТИ МАШИННОГО ОБУЧЕНИЯ
Часть III. ПРЕДСКАЗАНИЯ, ПРОГНОЗЫ И НЕОПРЕДЕЛЕННОСТЬ
11. КАЛИБРОВКА ВЕРОЯТНОСТИ ПРИ ЖИРНЫХ ХВОСТАХ‡
12. ПРЕДСКАЗАНИЯ ВЫБОРОВ КАК МАРТИНГАЛ: АРБИТРАЖНЫЙ ПОДХОД‡
Часть IV. ОЦЕНОЧНЫЕ НЕРАВЕНСТВА ПРИ ЖИРНЫХ ХВОСТАХ
13. ОЦЕНКА ДЖИНИ ПРИ БЕСКОНЕЧНОЙ ДИСПЕРСИИ‡
14. СУПЕРАДДИТИВНОСТЬ И СМЕЩЕННЫЕ ОЦЕНКИ ВКЛАДА КВАНТИЛЕЙ‡a
Часть V. СТАТЬИ О ТЕНЕВЫХ МОМЕНТАХ
15. ТЕНЕВЫЕ МОМЕНТЫ ЯВЛЕНИЙ С МНИМО БЕСКОНЕЧНЫМ СРЕДНИМ‡
16. О ХВОСТОВОМ РИСКЕ ОСТРОГО КОНФЛИКТА‡
G. КАКОВА ВЕРОЯТНОСТЬ ТРЕТЬЕЙ МИРОВОЙ ВОЙНЫ?*†
Часть VI. СТАТЬИ О МЕТАВЕРОЯТНОСТИ
17. КАК ТОЛСТЫЕ ХВОСТЫ ВОЗНИКАЮТ ИЗ РЕКУРСИВНОЙ ЭПИСТЕМОЛОГИЧЕСКОЙ НЕОПРЕДЕЛЕННОСТИ†
18. СТОХАСТИЧЕСКИЙ ПОКАЗАТЕЛЬ ХВОСТА ПРИ АСИММЕТРИЧНЫХ СТЕПЕННЫХ ЗАКОНАХ†
19. МЕТА-РАСПРЕДЕЛЕНИЕ p-ЗНАЧЕНИЙ И p-ХАКИНГ‡
H. НЕКОТОРЫЕ НЕДОРАЗУМЕНИЯ В ПОВЕДЕНЧЕСКОЙ ЭКОНОМИКЕ
Часть VII. ТОРГОВЛЯ ОПЦИОНАМИ И ЦЕНЫ ПРИ ЖИРНЫХ ХВОСТАХ
20. НЕУДАЧИ ФИНАНСОВОЙ ТЕОРИИ КАСАТЕЛЬНО ЦЕН ОПЦИОНОВ†
21. ЕДИНСТВЕННАЯ МЕРА ДЛЯ ЦЕН ОПЦИОНОВ (БЕЗ ДИНАМИЧЕСКОГО ХЕДЖИРОВАНИЯ ИЛИ ПОЛНОГО РЫНКА)‡
22. ТОРГОВЦЫ ОПЦИОНАМИ НЕ ПОЛЬЗУЮТСЯ ФОРМУЛОЙ БЛЭКА — ШОУЛЗА — МЕРТОНА*‡
23. ЦЕНООБРАЗОВАНИЕ ОПЦИОНОВ ПРИ СТЕПЕННЫХ ЗАКОНАХ: РОБАСТНАЯ ЭВРИСТИКА*‡
24. ЧЕТЫРЕ ОШИБКИ В ФИНАНСОВОЙ МАТЕМАТИКЕ*‡
25. ОГРАНИЧЕНИЯ ХВОСТОВОГО РИСКА И МАКСИМАЛЬНАЯ ЭНТРОПИЯ‡
Персоналии
Библиография

Nassim Nicholas Taleb
STATISTICAL CONSEQUENCES OF FAT TAILS
Real World Preasymptotics, Epistemology, and Applications
The Technical Incerto Collection

Перевод с английского Виктора Боруна

Талеб Нассим Николас
Статистические последствия жирных хвостов : О новых вычислительных подходах к принятию решений / Нассим Николас Талеб ; [пер. с англ. В. Ф. Боруна]. — М. : КоЛибри, Азбука-Аттикус, 2023.

ISBN 978-5-389-23105-4

16+

Новая книга всемирно известного мыслителя, автора «Черного лебедя» Нассима Николаса Талеба открывает серию The Technical Incerto Collection и посвящена тем классам статистических распределений, от которых можно ждать экстремальных событий.

Если вы не дружите с графиками и формулами, то из этой книги почерпнете информацию только про скандалы и разоблачение горе-ученых. Если вы учили математическую статистику, эта книга поможет вам переучиться. Если вы студент или ученый, эта книга — бесценный мастер-класс. Впервые под одной обложкой собраны исследовательские статьи Талеба и его учеников, где в неповторимом талебовском стиле живо и ярко прослеживается ход мысли прикладного математика, сталкивающегося с жизненной задачей, не зная, можно ли ее решить аналитически, с чего начать, за что хвататься, — но настроенного пустить в ход, если понадобится, весь арсенал классической и современной математики и всю мощь компьютеров. Автор и его последователи щедро делятся с читателем своими ранними догадками, интуицией и аналогиями, которые помогли им в итоге найти решение.

«Книги серии Incerto посвящены выживанию в реальном мире с его структурой неопределенности, которая слишком сложна для нашего понимания. Цикл ставит целью объединить пять областей знания, связанных с жирными хвостами и экстремальными событиями: в математике, философии, общественных науках, теории контрактов и теории принятия решений, — с опытом профессионалов». (Нассим Николас Талеб)

© Nassim Nicholas Taleb, 2020
© Борун В.Ф., перевод на русский язык, 2023
© Издание на русском языке, оформление.
ООО «Издательская Группа «Азбука-Аттикус», 2023
КоЛибри®

СОАВТОРЫ [1]

 

Паскуале Чирилло (главы 13, 15 и 16)

Рафаэль Дуади (глава 14)

Андреа Фонтанари (глава 13)

Эльетт Жиман (глава 25)

Дональд Жиман (глава 25)

Эспен Хог (глава 22)

Сотрудники хедж-фонда Universa Investments (глава 23)

 

 

 

 

Издание подготовлено на основе диссертации Андре Миду и адаптации Лоренцо Пантьери для Ars Classica.

С глубочайшей признательностью Андре и Лоренцо.

В организации издательской деятельности поддержку оказала компания Scribe Media; особая благодарность Такеру Максу, Элли Коул, Заку Обронту и Эрике Хоффман.

 

 

 

Нетехнические главы отмечены звездочкой *;
главы, посвященные дискуссии, отмечены типографским крестиком † ;
адаптированные версии статей в рецензируемых журналах —
двойным типографским крестиком ‡.
Главы нумеруются арабскими цифрами, но вводные и другие короткие главки (отличные от приложений и от полноценных глав) индексируются буквами A, B и т. д.

1
ПРОЛОГ*†

Чем хуже вы понимаете мир,
тем проще вам принять решение.

 

Рисунок 1.1: Проблема не в том, что люди не слышали о «жирном хвосте», а в том, что не понимают серьезность его последствий. Когда вам встретился «жирный хвост», нельзя выбрать из привычного арсенала статистики соответствующий вариант комплекта инструментов; нужно сменить весь подход к принятию решений. © Stefan Gasic

Главная идея в основе проекта Incerto — та, что при всей неопределенности и непроницаемости мира и при нехватке информации и понимания все равно в каждой конкретной ситуации оказывается совершенно ясно, какие действия нужно предпринять на основе того немногого, что известно и понятно.

Эта книга состоит из (1) опубликованных статей и (2) бесцензурного комментария, посвященных тем классам статистических распределений, от которых можно ждать экстремальных событий. Мы изучим, как использовать эти распределения для статистических выводов и принятия решений.

 

Рисунок 1.2: Усложнение из-за непонимания. Что творится в головах профессионалов, когда они применяют статистику и анализ данных, не имея ясного представления об основных понятиях. © Wikimedia

«Стандартная» статистика по большей части работает на основе теорем, выведенных для тонких хвостов. Чтобы работать с предасимптотикой [2] жирных хвостов, эти методы придется либо адаптировать нетривиальным образом, либо вовсе исключить из арсенала полезных инструментов.

Автору не раз приходилось слышать фразы вроде «Это и так все знают» и «В жирных хвостах нет ничего нового» — ими пытались защищаться преподаватель или практик, пойманные на совершенно бессмысленной в конкретной ситуации попытке использовать дисперсию, обобщенную авторегрессию, коэффициент эксцесса, коэффициент Шарпа или стоимость под риском или указать статистическую значимость там, где она не значит ничего.

Автор обогатил свой опыт, когда осуществил программу научных исследований и выпустил ряд книг серии Incerto [226], посвященных выживанию в реальном мире с его структурой неопределенности, которая слишком сложна для нашего понимания.

Цикл Incerto ставит целью объединить пять областей знания, связанных с жирными хвостами и экстремальными событиями: в математике, философии, общественных науках, теории контрактов и теории принятия решений, — с опытом профессионалов. Если вы спросите, при чем здесь теория контрактов и теория принятия решений, то ответ таков: математика опционов основана на идее условной вероятности и объединении контрактов с целью изменить класс воздействия в хвостах распределения; некоторым образом теория опционов — это математическая теория контрактов. Теория принятия решений ставит целью не понять мир, а выбраться из неприятностей и выжить. Этой задаче будет посвящен следующий том Технического Incerto, его текущее рабочее название — Convexity, Risk, and Fragility («Выпуклость вниз, риск и хрупкость»).

ЗАМЕЧАНИЕ О ТЕРМИНАХ

В академическом контексте при описании распределения часто используется термин «толстые хвосты» (thick tails). Мы вместо этого будем говорить, что «коэффициент эксцесса выше, чем у гауссианы»; это ближе к профессиональному жаргону финансиста.

Термин «жирные хвосты» (fat tails) мы оставим за особо толстыми хвостами, которые характерны для распределений по степенно́му закону или эквивалентному (жирный хвост и степенной закон, как мы покажем в Главе 8, неотделимы друг от друга). Некоторые авторы придают «жирным хвостам» более узкий смысл, требуя точного степенного закона или хотя бы правильно меняющейся функции. Однако мы, хотя и будем иногда применять степенные законы (в тех случаях, когда известно, что процесс работает именно так), жирными хвостами будем называть все экстремально толстые хвосты.

Во избежание путаницы не будем пользоваться дополнительными терминами вроде «тяжелых хвостов» (heavy tails) или «длинных хвостов» (long tails).

Термины «толстые хвосты» и «жирные хвосты» будут прояснены в следующих двух главах.

 

Рисунок 1.3: Классическая реакция, когда «альтернативой» считается только тот анализ, который рекомендует одобрить кредит. © Stefan Gasic

БЛАГОДАРНОСТИ

Помимо уже названных соавторов, автор благодарен Чжуо Си, Жан-Филипу Бушо, Роберту Фраю, Спиросу Макридакису, Марку Шпицнагелю, Брэндону Яркину, Рафаэлю Дуади, Питеру Карру, Марко Авельянеде, Дидье Сорнетту, Полю Амбре, Бруно Дюпиру, Джамилю Базу, Дамиру Деличу, Яниру Бар-Яму, Диего Цвивовичу, Джозефу Норману, Оле Петерсу, Читпьюниту Манну, Гарри Крейну — и, разумеется, долгим, нескончаемым дискуссиям с великим Бенуа Мандельбротом.

Много опечаток исправили добровольные редакторы в социальных сетях, такие как Максим Бьет, Чао Винчи, Джейсон Торелл и Петри Хэло. Обширный список опечаток и потенциальных нотационных двусмысленностей прислал Кевин Ван Хорн.

Часть статей, ставших главами этой книги, была представлена на конференциях; автор благодарит Лоренца де Гаана, Берта Цварца и других за комментарии по проблемам, связанным с экстремальными значениями. Более точные благодарности сформулированы в конкретных главах. Как обычно, автор хотел бы поблагодарить штат ресторана Naya в Нью-Йорке.

Автор представил данную книгу и главные тезисы на ежемесячной конференции Блумберг — Квант [3] в Нью-Йорке в сентябре 2018 года. После лекции ко мне подошел один выдающийся профессор финансовой математики.

— Типичная талебщина, — сказал он. — Вы доказываете, что так-то и так-то нельзя, но взамен не предлагаете альтернатив.

Понятно, что в бизнесе и любой другой сфере, где действует суровая школа реального мира, такой работник долго бы не выжил. Но кто не рискует собственной шкурой [236], до того не доходит, как важно, смотря по обстоятельствам, отложить свои убеждения и как ценны сведения о ненадежности для принятия решений: не передавай пилоту неточные данные, научись передавать только надежную информацию; сообщая пилоту о неисправности самолета, ты спасаешь жизни. И до них не доходит, как эффективен подход via negativa — когда наука, по Попперу, развивается отсечением неудачных теорий. Покойный Дэвид Фридман предпринял безуспешную попытку укротить маньяков бессмысленного и обманчивого моделирования в статистике, продемонстрировав, как их прогнозы с большим отрывом проигрывают соревнование «ничему», пустой теории.

Между тем в ряде статей и глав этой книги предлагаются решения и альтернативы. Увы, некоторых они не обрадуют, поскольку требуют математических усилий, чтобы построить совершенно другие модели, модели для ситуаций с жирными хвостами.

2
ГЛОССАРИЙ, ОПРЕДЕЛЕНИЯ
И ОБОЗНАЧЕНИЯ

Это систематический каталог с пояснениями основных разделов и обозначений. Все обозначения разъясняются и в основном тексте; здесь те же пояснения дублируются для удобства читателя, решившего посмотреть только отдельные отрывки. Некоторые обозначения отличаются в той или иной главе, созданной на основе конкретной статьи; здесь это указывается. Иногда наша терминология расходится с терминологией других исследовательских групп, хотя мы старались не противоречить существующим терминам.

2.1. ОБЩИЕ ОБОЗНАЧЕНИЯ И ЧАСТО ИСПОЛЬЗУЕМЫЕ СИМВОЛЫ

 — вероятность случайного события; обычно в форме (X > X), где X — случайная величина, а событием считается, что ее реализация превзошла значение X. Более формальные определения событий и вероятностей по канонам теории меры и прочий французский встречаются в Главе 11 и других местах, где этот формализм имеет смысл.

𝔼 — оператор математическое ожидание [4].

𝕍 — оператор дисперсия [5].

𝕄 — среднее абсолютное отклонение; [6] если центрируется, то относительно среднего (а не медианы).

φ(.) и f (.) обычно зарезервированы за плотностью вероятности заранее указанного распределения. В некоторых главах делается различие между fX (x) и fY (y), особенно когда случайные величины X и Y следуют двум разным распределениям.

n обычно зарезервировано за числом слагаемых.

p обычно зарезервировано за порядком момента.

НСВ — непрерывная случайная величина [7].

F(.) обычно зарезервировано за функцией распределения, то есть F(x) = (X < x). Функция выживания (X > x) записывается с чертой сверху, (.) или обозначается буквой S [8].

~ означает, что случайная величина по одну сторону от тильды распределена согласно закону, указанному по другую сторону от тильды.

χ(t) = 𝔼 eitXs — характеристическая функция случайной величины XS. Иногда для аргумента t ∈ ℝ используется другая буква — ω. Сама характеристическая функция иногда обозначается заглавной Ψ [9].

D означает сходимость по распределению, то есть следующее. Пусть X1, X2, … — последовательность случайных величин; тогда Xn →DX означает, что последовательность соответствующих функций распределения Fn имеет предел:

при всяком действительном x, при котором F непрерывна.

P означает сходимость по вероятности, то есть что при ε > 0 для описанной выше последовательности

a.s.означает сходимость почти наверное [10], то есть более сильное требование:

Sn обычно обозначает сумму n слагаемых.

α, а также αP и αS. Во избежание двусмысленности мы будем прибегать к двум обозначениям: αS ∈ (0, 2] для показателя хвоста платонического (предельного) устойчивого распределения; αP ∈ (0, ∞) для показателя хвоста в распределении Парето (доасимптотическом). В недвусмысленном контексте можем обходиться просто α.

𝒩 (μ1, σ12) — нормальное (гауссово) распределение со средним μ1 и дисперсией σ12  [11].

ℒ (., .) или ℒ𝒩 (., .) — логнормальное распределение, с плотностью f(L)(.). Здесь обычно параметры указываются как ℒ ; тогда математическое ожидание X0 и дисперсия   [12].

𝒮(αS, β, μ, σ) — устойчивое распределение с показателем хвоста αS ∈ (0, 2], коэффициентом симметрии β в интервале (–1, 1), коэффициентом положения μ ∈ ℝ и коэффициентом масштаба σ > 0.

𝔓 — класс степенного закона (см. ниже).

𝔖 — субэкспоненциальный класс (см. ниже).

δ(.) — дельта-функция Дирака.

ϑ(.) — тета-функция Хевисайда [13].

erf(.) — функция ошибок, представляющая собой интеграл плотности гауссова распределения [14]

erfc(.) — дополнительная функция ошибок, 1 – erf (Z).

∥⋅∥p — норма; в этой книге [15] применяется к действительному вектору X = (X1, …, Xn)T и определяется как

Обратите внимание, что компоненты вектора берутся по абсолютной величине.

1F1(.; .; .) — вырожденная гипергеометрическая функция:

22(., .; ., .; .) — регуляризация обобщенной гипергеометрической функции 2F2:

 ,

где обобщенная гипергеометрическая функция pFq(.; .; .) раскладывается в ряд

с использованием символа Похгаммера [16] (a)n =  (a + i).

2.2. СИСТЕМАТИЧЕСКИЙ КАТАЛОГ ОБЩИХ И ИДИОСИНКРАЗИЧЕСКИХ ПОНЯТИЙ

Ниже дублируются определения из основных разделов.

2.2.1. Класс степенного закона 𝔓

Принято определять класс степенного закона по свойству функции выживания следующим образом.

Пусть X — случайная величина из класса распределений с правым хвостом, подчиняющимся степенному закону, то есть:

(X > X) = L(x) xα, (2.1)

где L: [xmin, +∞) → (0, +∞) — медленно меняющаяся функция, определяемая требованием

для всех k > 0 [22].

Тогда говорят, что функция выживания случайной величины X принадлежит классу правильно меняющихся на бесконечности функций RVα [17].

Давайте уточним: функция f: ℝ+ → ℝ+ меняется на бесконечности с показателем ρ, то есть f ∈ RVρ, когда

 [18].

С практической точки зрения это значит, что рано или поздно L(x) подходит к своему пределу l и становится константой, которую мы будем называть константой Караматы; рубеж, где достигается константа, будем называть точкой Караматы. За этой точкой хвосты степенного закона калибруются стандартными методами, такими как характеристика Хилла. Б. Мандельброт называл распределение в этой области сильным законом Парето [162], [75].

То же верно при соответствующих оговорках для левых хвостов.

2.2.2. Закон больших чисел (слабый)

Обычно его представляют так. Пусть X1, X2, …, Xn — бесконечная последовательность независимых одинаково распределенных случайных величин, интегрируемых по Лебегу, с математическим ожиданием 𝔼Xi = μ (вообще говоря, требование н. о. р. можно до некоторой степени ослабить).

Тогда выборочное среднее первых n величин n =
1/n
(X1 + X2 + … + Xn) сходится к математическому ожиданию, n → μ при n → ∞.

Конечность дисперсии не обязательна (однако весьма желательна: если дисперсия и прочие высшие моменты распределения конечны, то n сходится быстрее).

Когда потребуется, рассмотрим и сильный закон больших чисел.

2.2.3. Центральная предельная теорема (ЦПТ)

Классический вариант ЦПТ, теорема Линдеберга-Леви, утверждает следующее. Пусть дана последовательность Xi н. о. р. величин с 𝔼Xi = μ и 𝕍 Xi = σ2 < +∞, и пусть n — это среднее по выборке первых n величин. Тогда по мере приближения n к бесконечности центрированное и нормированное среднее n (nμ) сходится по распределению к гауссову [20] [21]

𝒩 (0, σ2).

Сходимость по распределению означает, что функция распределения для n (nμ) поточечно сходится к 𝒩 (0, σ2), то есть что для всякого действительного Z

где Φ(Z) — значение стандартного нормального распределения в точке Z.

Есть ряд других вариантов ЦПТ, которые мы представим по мере надобности.

2.2.4. Закон средних чисел, или Предасимптотика

Это центральная тема этой книги. Нас интересует поведение случайной величины для умеренно большого n, или предасимптотика. Вопрос не так актуален для гауссова распределения, поскольку оно сходится быстро (в силу ЗБЧ и ЦПТ); другое дело — негауссовы случайные величины.

Смотрите далее в разделе о показателе каппа.

2.2.5. Показатель каппа

Здесь показатель не в алгебраическом смысле, как показатель степени, а в инженерном, как количественный параметр машины [19]. Каппа оценивает доасимптотическое поведение случайной величины. Этот показатель разработан автором, как описано в главе 8 и статье [235]. Каппа пробегает интервал [0, 1]; κ = 0 для гауссовой случайной величины и κ = 1 для распределения Коши или иной случайной величины, не имеющей математического ожидания [20].

Пусть X1, …, Xn, … — случайные величины н. о. р. с конечным математическим ожиданием, то есть 𝔼X < +∞. Пусть Sn = X1 + X2 + … + Xn — частичная сумма. Пусть 𝕄(n) = 𝔼|Sn– 𝔼Sn| — математическое ожидание абсолютного отклонения частичной суммы n слагаемых от математического ожидания этой суммы (как мы уже предупреждали, у нас отклонение отсчитывается не от медианы, а от среднего). Определим скорость сходимости при увеличении числа слагаемых от n0 до n:

, (2.2)

где n0, n = 1, 2, … и n > n0 ≥ 1; соответственно

(2.3)

В дальнейшем мы будем часто пользоваться значениями n = n0 + 1 и сокращать обозначение до κn0.

2.2.6. Эллиптическое распределение

О случайном векторе X размерности p × 1 говорят, что у него эллиптическое распределение (или распределение с эллиптическим контуром) с параметрами положения μ, неотрицательной матрицей Σ и некоторой скалярной функцией Ψ, если характеристическая функция представима в виде exp(itμ)Ψ(tΣt′).

С практической точки зрения эллиптическое распределение должно собираться из распределений с одной и той же ковариационной матрицей. Переключение режима или стохастические ковариации (корреляции) мешают распределению быть эллиптическим. И мы покажем в Главе 6, что линейная комбинация случайных величин, следующих распределениям с тонким хвостом, способна генерировать взрывные толстохвостые свойства, когда эллиптичность нарушается. Этот эффект, наряду со случаями жирного хвоста, делает несостоятельной значительную часть современной финансовой науки.

2.2.7. Статистическая независимость

Независимость между двумя случайными величинами X и Y с частными функциями плотности вероятности fX(X) и fY(y) и совместной функцией плотности вероятности f(x, y) определяется тождеством:

независимо от коэффициента корреляции. В классе эллиптических распределений, когда совместное гауссово распределение имеет коэффициент корреляции 0, случайные величины и независимы, и некоррелированы. Иначе обстоит дело с многомерными формами t-распределения Стьюдента или распределения Коши.

2.2.8. Устойчивое распределение (устойчивое по Леви)

Это обобщение ЦПТ.

Пусть X1, …, Xn — независимые одинаково распределенные случайные величины. Рассмотрим их сумму Sn. Теорема утверждает, что

 , (2.4)

где XS следует устойчивому распределению 𝒮, an и bn — нормирующие константы, а  →D, как вы помните, означает сходимость по распределению (распределению X при n → ∞).

Свойства 𝒮 будут должным образом определены и рассмотрены в следующей главе. Пока заметим, что про случайную величину XS говорят, что она следует устойчивому (или α-устойчивому) распределению, и пишут XS ~ 𝒮(αS, β, μ, σ), если ее характеристическая функция χ(t) = 𝔼eitXS имеет вид:

, где αS ≠ 1. (2.5)

Ограничения: –1 ≤ β ≤ 1 и 0 < αS ≤ 2 [21].

2.2.9. Многомерное устойчивое распределение

О случайном векторе X = (X1, …, Xk)T говорят, что он имеет многомерное устойчивое распределение, если каждая линейная комбинация его компонент Y = a1X1 + ⋯ + akXk имеет устойчивое распределение. То есть каждая векторная константа a ∈ ℝk должна давать устойчивое одномерное распределение для случайной величины Y = aX.

2.2.10. Точка Караматы

См. Класс степенного закона.

2.2.11. Субэкспоненциальность

Естественной границей между Медиокристаном [22] и Экстремистаном служит субэкспоненциальный класс, обладающий следующим свойством.

Пусть X1, …, Xn — последовательность независимых одинаково распределенных случайных величин с носителем в (ℝ+) и кумулятивной функцией распределения F.

Субэкспоненциальный класс определяется требованием (см. [248], [196]):

, (2.6)

где F*2 = F′ ∗ — это кумулятивное распределение X1 + X2, суммы двух независимых копий случайной величины X. Требование означает, что вероятность того, что сумма X1 + X2 превысит значение x, вдвое выше вероятности того, что значение x будет превышено любым отдельно взятым слагаемым. Значит, для больших x все случаи, когда сумма превышает x, она обязана этим только одному из слагаемых — большему из двух, — тогда как вклад другого пренебрежимо мал [23].

Обобщая, можно доказать, что и в сумме n величин преобладает одна из них, максимальная. Формально следующие два свойства эквивалентны условию субэкспоненциальности [43], [84].

Для данного n ≥ 2 пусть и Mn = max1≤in Xi. Тогда

 

a)

b) .

 

Таким образом, сумма Sn сравнима по величине с наибольшим слагаемым Mn, другими словами — хвосты играют главную роль.

На интуитивном уровне важно понять, что частота событий в хвосте субэкспоненциальных распределений падает медленнее, чем в экспоненциальном распределении, где событиями в далеком хвосте можно пренебречь.

В самом деле, можно доказать, что у субэкспоненциальных распределений нет экспоненциальных моментов:

(2.7)

для всех ε больше нуля. Однако обратное неверно, поскольку распределения могут не иметь экспоненциальных моментов и все равно не удовлетворять субэкспоненциальному условию.

2.2.12. t-распределение Стьюдента как прокси

Мы используем t-распределение Стьюдента с α степенями свободы как удобное распределение степенного закона с двумя хвостами. При α = 1 оно превращается в распределение Коши, а при α → ∞, естественно, в гауссово.

t-распределение Стьюдента — это главный колоколообразный степенной закон, то есть плотность вероятности непрерывная и гладкая, асимптотически приближается к нулю для больших x, отрицательных или положительных, и унимодальна, то есть ее максимум — единственный (кроме того, плотность вероятности квазивыпукла вверх, хотя и не выпукла вверх).

2.2.13. Круг цитирования

Замкнутый механизм, помогающий академической карьере авторов статей, которые считаются выдающимися, поскольку их цитируют, без фильтрации по внешним критериям; в результате исследоватили оседают по уютным углам, сосредоточившись на несущественных частных вопросах. Этот механизм сложился в условиях функционирования академической системы без контроля извне и без собственной шкуры на кону.

Примеры областей исследований, которые по сути шарлатанство, так как их результаты непереносимы в реальную жизнь и пригодны только как пища для новых статей, которые, в свою очередь, произведут только новые статьи: современная портфельная теория [24], эконометрика (особенно в части макроэкономических параметров), процедуры GARCH [25], психометрия, модели стохастического управления финансами, поведенческая экономика и финансирование, принятие решений в условиях неопределенности, макроэкономика и прочее.

2.2.14. Погоня за рентой в научном мире

Существует конфликт интересов [26] между исследователем и его темой. Целью кафедры и ее сотрудников становится цитируемость, награды и прочее в ущерб собственно исследованию; например, чтобы не браться за трудные задачи, многие разбредаются по углам, где исследование полезно для личной карьеры и для кафедры, а не для дела.

2.2.15. Псевдоэмпиризм, или Проблема Пинкера [27]

Привлечение «доказательств», лишенных статистической значимости, или использование показателей, которые неинформативны, поскольку неприменимы к рассматриваемым случайным величинам (например, вывод на основе средних значений или корреляция величин с толстым хвостом). Причина болезни в том, как учат будущих исследователей в общественных науках:

 

i) статистике учат на примере гауссовых величин или величин с тонким хвостом,

ii) не учат теории вероятностей и плохо учат терминам статистики,

iii) вовсе не учат работать с многомерностью.

Вот примеры псевдоэмпиризма: сравнивают число смертей от террористических актов или при эпидемиях вроде эболы (где у случайной величины хвост жирный) и несчастные случаи при падении со стремянок (где хвост тонкий).

Смещение в сторону подтверждения наблюдений — бич современной науки; оно приводит к ложно-позитивным выводам как в случаях многомерных случайных величин, так и в случаях жирного хвоста.

На самом деле даже не обязательно знать разницу между величинами с жирным хвостом и гауссовыми, чтобы заметить шаткость таких рассуждений, поскольку они не удовлетворяют простому критерию статистической значимости. Впрочем, рассуждающие обычно вовсе не разбираются в статистической значимости.

2.2.16. Предасимптотика

Математическая статистика любит работать с суммой n слагаемых при n = 1 или n = ∞. Посередине находится то, что мы называем реальностью и чему главным образом посвящена эта книга. Некоторые суммы (скажем, те, где у слагаемых конечная дисперсия) ведут себя, как гауссова величина, асимптотически, при n = ∞, однако не делают этого даже при некоторых огромных n < ∞.

2.2.17. Стохастизация

Замена детерминированного параметра на случайный; можно (i) простым способом, можно (ii) с применением более сложного непрерывного или дискретного распределения.

i) Пусть s — детерминированный параметр; стохастизируем его простейшим способом, заменив на случайную величину S, следующую распределению [28] Бернулли с двумя значениями: s1, которое принимается с вероятностью p, и s2, которое принимается с вероятностью 1 – p. Стохастизация сохранит среднее, если ps1 + (1 – p)s2 = s, то есть когда значение параметра s сохраняется в виде среднего значения случайной величины S. Вообще говоря, заменить некоторый параметр s некоторого распределения f на случайную величину S можно так, чтобы сохранить дисперсию распределения или какие-то другие характеристики.

ii) Можно использовать полноценное распределение вероятностей. Обычно берут гауссово, если нужна случайная величина с двумя хвостами, а когда нужен один хвост, берут логнормальное или экспоненциальное распределение, реже степенной закон. Когда s — это среднеквадратическое отклонение некоторой случайной величины, можно стохастизировать s2, создав стохастическую волатильность; дисперсию или среднеквадратическое отклонение параметра s называют волатильностью волатильности и обозначают V-vol.

2.2.18. Стоимость под риском, условная стоимость под риском

Математически стоимость под риском (value at risk, VaR) при пороге [29] λ ∈ [0, 1] для случайной величины X с функцией распределения F выражается как

VaRλ X = –inf{x ∈ ℝ | F(x) > λ} [30],

а соответствующая условная стоимость под риском (conditional value at risk, CVaR), она же ожидаемые потери (expected shortfall, ES) [31] при пороге λ, как

ESλ X = 𝔼(–X | X ≤ –VaRλ X)

или, рассматривая положительную величину потерь, работают с положительным хвостом распределения [32].

Обобщая, ожидаемые потери при пороге k определяют как 𝔼(X | X > K) [33].

2.2.19. Своя шкура на кону

Фильтрующий механизм, который заставляет повара отведать собственное блюдо и пострадать, если оно не удалось; так система избавляется от опасных участников.

Ставят на кон свою шкуру, например, сантехники, дантисты, хирурги, инженеры. Их работа приносит осязаемый результат, или предприятие разоряется.

Где нет своей шкуры на кону: в академических кругах. Участники оценивают друг друга, не ощущая давления со стороны реальности, угрожающего их существованию.

2.2.20. График MS

График MS (maximum to sum, максимум к сумме) показывает проявление ЗБЧ на данный момент, вклад максимального наблюдения в итог и поведение итога по мере роста n.

Чтобы узнать для НСВ X, существует ли 𝔼 Xp, нужно пронаблюдать сходимость согласно закону больших чисел или ее отсутствие, изучив поведение высших статистических моментов в данной выборке. Удобно это делать по графику MS, как показано на Рисунке 10.3.

График MS опирается на следствие из закона больших чисел [184], касающегося максимального значения случайной величины. Для последовательности X1, X2, …, Xn, … неотрицательных случайных величин н. о. р., если 𝔼 Xp < ∞ при p = 1, 2, 3, … то отношение

где  — частичная сумма, а  — частичный максимум. (Заметим, что в качестве X можно взять абсолютную величину случайной величины, если НСВ может принимать отрицательные значения, и тогда данный подход будет применим и к нечетным статистическим моментам.)

2.2.21. Максимальный аттрактор (MDA)

Теория экстремальных значений рассматривает распределение максимума по n экземплярам НСВ, когда это распределение при x → x*, где x* = sup{x: F(x) <1} (точка, в которой распределение «кончается» [34]), приближается, с точностью до последовательностей нормирующих коэффициентов, к одному из предельных распределений G(x) — максимальных аттракторов [35] [116]. Другими словами,

2.2.22. Подмена интеграла в литературе для психологов

В литературе без формул совершается следующее смешение понятий. Пусть K ∈ ℝ+ — порог, f (.) — плотность вероятности, pK ∈ [0, 1] — соответствующая вероятность превысить порог и g(.) — функция воздействия. Обозначим как I1 ожидаемый платеж при превышении K:

и как I2 платеж при K, умноженный на вероятность превысить K:

Подмена происходит из-за смешения I1 и I2, которые на самом деле совпадают только в случае, когда g(.) — константа в области выше K (скажем, когда g(x) = ϑK(x), тета-функция Хевисайда).

Если же, напротив, g(.) изменяется с положительной первой производной, интеграл I1 будет близок к I2 только при распределении с тонким хвостом, а в случае жирного хвоста — нет [36].

2.2.23. Попытка вынести вероятность за скобку (еще одна типичная ошибка)

Пусть F: 𝒜 → [0, 1] — распределение вероятностей (с производной f), а g: ℝ → ℝ — измеримая функция «платежа». Понятно, что платеж по области 𝒜 — подмножеству множества 𝒜 составит

В дискретном случае для функции вероятности π(.)

(2.8)

Общая идея в том, что умножение на вероятность не выносится за знак интеграла или суммы; если по ставкам на разные события разная вероятность выигрыша, ожидаемый платеж при некотором наборе ставок разной величины на разные события нельзя посчитать по средней вероятности выигрыша.

2.2.24. Линейка Витгенштейна

Имеется в виду следующий парадокс: вы правда измеряете стол линейкой или на самом деле вы измеряете линейку столом? [37] В нашем случае ответ зависит от результата.

Допустим, имелось только две альтернативы: гауссово распределение и степенной закон. Мы докажем, что большое отклонение, скажем на «шесть сигма», — признак степенного закона [38].

2.2.25. Черные лебеди

Черные лебеди появляются из-за неполноты нашего знания и могут быть весьма значительны в области жирных хвостов.

По сути, это вещи, которые выпадают из вашего горизонта планирования и моделирования, но могут иметь значительные последствия. Речь не о том, чтобы предсказать их, а только о том, чтобы иметь для них выпуклую вниз (или хотя бы не выпуклую вверх) оценку воздействия: хрупкость по отношению к определенному классу событий поддается обнаружению и даже измерению (путем оценки эффектов второго порядка и асимметрии реакций), даже если статистические параметры этих событий установить не удастся.

Тяжело объяснить разработчикам модели, что им нужно научиться работать с вещами, которых они никогда не видели (и даже не представляли), но это нужно сделать [39].

Примечание об эпистемологическом измерении: черные лебеди зависят от наблюдателя; одно и то же событие может быть черным лебедем для индейки и белым лебедем для торговца мясом. 11 сентября стало черным лебедем для жертв нападения, но не для террористов. Зависимость от наблюдателя — неотъемлемое свойство черного лебедя, и его объективная теоретико-вероятностная модель не просто недоступна, она логически невозможна, ибо разрушит моделируемый объект, нарушив существенную для него неполноту информации и ее распространения.

Серые лебеди: так называются большие отклонения со значительными последствиями и низкой частотой, но все же не нарушающие статистических параметров. Разумеется, серость лебедя зависит от наблюдателя: лебедь, который сер для разработчика модели с распределением по степенному закону, окажется черен для наивного статистика, тщетно перебирающего стандартные системы моделирования и репрезентации тонких хвостов.

Повторим лишний раз: черные лебеди возможны и вне жирных хвостов, но в жирных хвостах они важнее. Связь между жирными хвостами и черными лебедями та, что в области жирных хвостов большие отклонения оказывают более сильное воздействие.

2.2.26. Выборочная функция распределения ненаблюдаема эмпирически [40]

Выборочная функция распределения (t) определяется так.

Пусть X1, X2, …, Xn — действительные случайные величины н. о. р. с функцией распределения F(t). Тогда

где𝟙𝒜 — индикаторная функция множества 𝒜.

Согласно теореме Гливенко — Кантелли, независимо от исходного распределения F(t) статистика Колмогорова [41] равномерно сходится к распределению [42] Колмогорова — Смирнова, причем

(2.9)

Эта «сходимость почти наверное» независимо от распределения гарантирована для вероятности, но не для высших моментов; такой результат автор получил и обобщил для «скрытого момента» выше максимума.

Отметим главный результат [43] (который Донскер в дальнейшем обобщил, выведя теорему броуновского моста, для случая ограничения t интервалом от 0 до 1):

(2.10)

Когда говорят, что «выборочная функция распределения ненаблюдаема эмпирически», имеют в виду, что выборочные распределения неизбежно цензурируются на интервале [xmin, xmax], и в случае жирного хвоста исследователь попадает в трудное положение: хвост не удается проанализировать в вероятностном пространстве, только в пространстве платежей.

Смотрите также главку о скрытом хвосте (следующую).

2.2.27. Скрытый хвост

Рассмотрим Kn — максимум по выборке из n независимых одинаково распределенных случайных величин: Kn = max(X1, X2, …, Xn). Пусть φ(.) — плотность исходного распределения. Разложим его статистический момент порядка p на два слагаемых, где «скрытый» вклад вносится хвостом выше Kn:

Здесь μL — вклад наблюдаемой части распределения и μK — вклад скрытой части (выше K).

Согласно теореме Гливенко — Кантелли, распределение μK, 0 не может зависеть от исходного распределения X, но на высшие статистические моменты эта теорема не распространяется, так что у исследователя, полагающегося на критерий [44] Колмогорова — Смирнова, могут быть проблемы.

2.2.28. Теневой момент

В этой книге рассматривается «дополнительная оценка». Бывает, что недостаточно найти среднее по наблюдаемой выборке: в случае распределений с жирным хвостом оно дает систематическую ошибку. Мы показываем, как оценить методом максимального правдоподобия основные параметры распределения, такие как показатель хвоста α, и рассчитать соответствующее теневое математическое ожидание или высшие статистические моменты.

2.2.29. Зависимость в хвосте

Пусть X1 и X2 — две случайные величины, не обязательно из одного класса распределений. Пусть F (q) — функция, обратная функции распределения для вероятности q, то есть F (q) = inf {x ∈ ℝ: F(x) ≥ q}, тогда зависимость в верхнем хвосте λu определяется как

 [45]. (2.11)

Аналогично определяется показатель зависимости в нижнем хвосте.

2.2.30. Метавероятность

Вероятность вероятности возникает, когда два вероятностных распределения сравнивают методами, включающими в себя стохастизацию параметров. Или когда параметр стохастизируют, чтобы рассчитать распределение цен опционов «колл» или показателей риска вроде VaR (см. соответствующую главку), CVaR и т. д. и проверить робастность или выпуклость вниз полученного распределения.

2.2.31. Динамическое хеджирование

Выигрыш по европейскому опциону «колл» C с установленным сроком T при стоимости исходного актива S следует хеджировать потоком динамических хеджей от настоящего времени T до t со следующим пределом:

(2.12)

Мы разбиваем интервал на n частей с инкрементом ∆t. Здесь хедж-отношение 
∂С/∂S
  вычисляется на промежутке времени t + (i – 1) ∆t, но мы получаем непредвосхищающую разность между ценой на время инициации хеджа и результирующей ценой на время t + i ∆t.

Предполагается, что таким путем выигрыш становится детерминированным в пределеt → 0.В мире гауссовых распределений пределом будет интеграл Ито…