Так, давайте продолжим разбираться с лекционным материалом. Давайте рассмотрим, как водится, случайный граф G от (n, p) причем p — это функция от n, которая ведет себя так, как она вела себя в основной теореме с лекции. Это c логарифм n поделить на n, где c меньше 1. И на лекции с помощью неравенства Чебышева мы доказали, что в этой ситуации асимптотически почти наверное случайный граф содержит хотя бы одну изолированную вершину и, стало быть, не является связным. То есть вот пафос был в том, что нарушение связности совпадает с появлением хотя бы одной изолированной вершины. А вот давайте зададимся вопросом, а с какой вероятностью есть ровно 1 изолированная вершина? То есть мы точно знаем, что с вероятностью, близкой к 1, изолированные вершины есть, но, может быть, их больше, чем 1. И вот мы сейчас действительно докажем, что ровно 1 изолированная вершина есть с маленькой, асимптотически маленькой вероятностью, причем забавным образом мы снова применим неравенство Чебышева здесь. Вот если на лекции мы доказали с помощью неравенства Чебышева, что асимптотически почти наверное изолированные вершины присутствуют, то сейчас мы докажем с помощью того же самого неравенства, что асимптотически почти наверное ровно 1 изолированная вершина все-таки не появляется, их появляется сразу несколько. Вот, ну давайте в скобках введем обозначение X от G — это есть число изолированных вершин в случайном графе, изолированных вершин. Так, ну и тогда в терминах этого X нас интересует просто вероятность того, что X в точности равняется 1. Конечно, эта вероятность не превосходит вероятности того, что X не больше 1, ну потому что сюда входит еще, вообще говоря, ситуация, что X равняется 0. Правда, вероятность того, что X равняется 0, как мы знаем, как раз маленькая, но вот мне тем не менее удобно написать это в форме такого неравенства. Дальше, давайте, как это уже показало себя полезным на лекции, слева и справа вычтем константу, равную математическому ожиданию нашей случайной величины. То есть будет вероятность того, что (X − MX) не превосходит (1 − MX), и это, конечно, не больше, чем вероятность того, что модуль (X − MX) больше либо равняется (MX − 1). Ну, то есть мы сначала поменяли знак, вот здесь слева и справа домножили на (−1), я просто проглотил этот шаг, домножили на (−1), получили слева (MX − X), справа (MX − 1), вот, ну и конечно, вероятность того, что величина, которая может принимать как отрицательные, так и положительные значения, больше либо равна чего-то, она не превосходит вероятности того, что ее модуль, модуль (MX − X) или, что то же самое, (X − MX) больше либо равняется того же самого. То есть это неравенство, конечно, правильное. А здесь мы уже можем применить неравенство Чебышева. То есть у нас получается не больше, чем дисперсия X поделить на MX минус 1 в квадрате. Давайте перепишем вот так: дисперсия X поделить на MX в квадрате умножить на MX в квадрате и поделить на MX минус 1 в квадрате. Но товарищи, мы на лекции доказали, что вот в этой ситуации, когда p такое, c меньше 1, в этой ситуации математическое ожидание стремится к бесконечности. Мат. ожидание X стремится к бесконечности, это мы доказали на лекции. Также на лекции мы показали, что вот эта вот дробь DX поделить на MX в квадрате, DX поделить на MX в квадрате стремится к нулю. Ну и все. Смотрите, вот эта дробь стремится к нулю по доказанному на лекции, MX стремится к бесконечности, ну значит вот эта дробь стремится к 1. Ну а, стало быть, произведение дробей стремится к нулю, и мы действительно доказали, что с вероятностью, которая очень мала, изолированная вершина ровно одна. Да, изолированные вершины есть, но с высокой вероятностью их больше одной.