Реферат по предмету "Информатика, программирование"


Прикладная теория информации

В.И. Дмитриев
ПРИКЛАДНАЯ ТЕОРИЯ ИНФОРМАЦИИ
Москва 1989

Оглавление
Введение. 3
§ В.1. О понятии«информация». 5
§ В.2. Этапы обращения информации. 7
§ В.3. Информационные системы… 9
§ В.4. Система передачи информации (основные понятия иопределения) 11
§ В.5. Уровни проблем передачи информации. 14
§ Β.6. Теорияинформации. 16
Глава 1. Математические модели сигналов. 20
§ 1.1 Понятия сигнала и его модели. 20
§ 1.2 Формы представления детерминированных сигналов. 22
§ 1.3 Временная форма представления сигнала. 28
§ 1.4 Частотная форма представления сигнала. 30
§ 1.5 Соотношения между длительностью импульсов и ширинойих спектров  47
§ 1.6 Спектральная плотность мощности детерминированногосигнала. 49
§ 1.7 Функция автокорреляции детерминированного сигнала. 50
§ 1.8 Случайный процесс как модель сигнала. 52
§ 1.9 Стационарные и эргодические случайные процессы… 58
§ 1.10 Спектральное представление случайных сигналов. 61
§ 1.11 Частотное представление стационарных случайныхсигналов. 64
Введение
Эффективнаяорганизация обмена информацией приобретает все большее значение, прежде всегокак условие успешной практической деятельности людей. Объем информации,необходимой для нормального функционирования современного общества, растетпримерно пропорционально квадрату развития производительных сил. Доля рабочейсилы, занятой вопросами обеспечения информацией, в развитых странах начинаетпревышать долю рабочей силы, занятой непосредственно в сфере производства. Применениеметодов и средств автоматизации на всех этапах обращения информации позволяетсущественно повысить эффективность функционирования экономики страны ивысвободить значительные трудовые ресурсы.
Всоответствии с Постановлением ЦК КПСС и Совета Министров СССР обобщегосударственной программе создания, развития производства и эффективногоиспользования вычислительной техники и автоматизированных систем до 2000 г. внашей стране намечен переход к широкой эксплуатации банков данных, локальныхвычислительных сетей и других информационных систем. При этом особое значениеприобретают системы связи и передачи данных, позволяющие обеспечитьколлективный и удаленный доступ к средствам хранения и обработки информации.
Комплекснаяавтоматизация процессов восприятия, преобразования, передачи, обработки иотображения информации с целью принятия оптимальных управляющих воздействийосуществляется в рамках создания автоматизированных систем управления (АСУ) наразличных уровнях — от предприятия до народного хозяйства в целом.
Основойрешения многих теоретических проблем создания АСУ является теория информации,предоставляющая возможности для комплексного информационного рассмотрениясложных систем.
Посколькуслово «информация» полисемично, возникает необходимость уточнениясмысла этого понятия в рамках рассматриваемой теории.
§ В.1. О понятии «информация»
Понятие «информация»является центральным понятием кибернетики. Оно используется и в теорииинформации, хотя основным понятием классической теории информации следуетпризнать «количество информации», смысла которого коснемся несколькопозже.
Имеетсямножество определений понятия информации от наиболее общего философского, (информацияесть отражение реального мира) до наиболее узкого практического (информацияесть все сведения, являющиеся объектом хранения, передачи и преобразования).
Некоторымизарубежными авторами информация трактуется с идеалистических позиций в отрывеот материи как некоторая субстанция, занимающая промежуточное положение междуматерией и сознанием.
С позициймарксистской философии информация рассматривается как характеристика такоговсеобщего свойства материи, как разнообразие. Такая трактовка находится вполном соответствии с известным положением В.И. Ленина о том, что вся материяобладает свойством отражения. Она четко выявляет взаимоотношения понятий «информация»и «отражение».
Информация — это отраженное разнообразие. В понятии «отражение» акцентируетсявнимание на воспроизведении содержания в целом, а в понятии «информация»- на воспроизведении одной его стороны — разнообразия. Следовательно, понятие «отражение»более широкое, более содержательное.
В рамкахматериалистической исходной посылки при конкретизации понятия «информация»имеют место расхождения по ряду существенных вопросов: информация — этосвойство индивидуального объекта (процесса) или результат взаимодействияобъектов (процессов)? Присуща ли информация всем видам материи или лишь определеннымобразом организованной материи? Существует ли информация в любых процессах иливозникает только в процессах управления? Выдвинутое академиками Глушковым В.М. [3]и Колмогоровым А.Н. [10], а также английским философом Эшби и развиваемоесоветскими учеными понятие информации как характеристики внутреннейорганизованности материальной системы (по множеству состояний, которые онаможет принимать) позволяет оценивать потенциальные возможности системнезависимо от процесса передачи или восприятия информации. Здесь подчеркиваетсямысль о том, что информация существует независимо от того, воспринимается онаили нет. Однако справедливо отмечается, что информация проявляется только привзаимодействии объектов (процессов).
Противоречияне возникает, если информацию рассматривать как свойство объекта впотенциальном смысле — свойство, которое проявляется лишь при взаимодействииобъектов (процессов). Так, в куске каменного угля содержится информация особытиях, происшедших в далекие времена, однако эта информация проявляется лишьпри взаимодействии с человеком. В книге Н. Винера «Кибернетика» [1] подчеркивается,что «информация есть информация, а не материя и не энергия». Вотличие от них информация может возникать и исчезать. В указанном примере синформацией в куске каменного угля она исчезнет, когда этот кусок каменногоугля сгорит.
Весьмараспространенным является также мнение о том, что информация присуща лишьопределенным образом организованной материи, в которой возможны процессыуправления. Сторонники этой точки зрения под информацией подразумевают толькото, что воспринято и осмыслено, т.е. то, что целесообразно использовать дляуправления. Нетрудно заметить, что вопрос о существовании информации здесьнеправомерно отождествляется с вопросом о способности объекта к восприятию ииспользованию информации. При таком подходе легко сойти на позициисубъективизма, ставящего объективно существующее в зависимость отвоспринимающего субъекта.
При всехразличиях в трактовке понятия информации, бесспорно то, что проявляетсяинформация всегда в материально-энергетической форме в виде сигналов. Информацию,представленную в формализованном виде, позволяющем осуществить ее обработку спомощью технических средств, называют данными. § В.2. Этапы обращения информации
Хотя рольинформации может ограничиваться неопределенным эмоциональным воздействием начеловека, в чисто технических (автоматических) и человеко-машинных(автоматизированных) системах она чаще всего используется для выработкиуправляющих воздействий. При обращении информации в системах можно выделитьотдельные этапы [26]. Так как материальным носителем информации являетсясигнал, то реально это будут этапы обращения и преобразования сигналов (рис. В.1).
/>
На этапе восприятияинформации осуществляется целенаправленное извлечение и анализ информации окаком-либо объекте (процессе), в результате чего формируется образ объекта,проводятся его опознание и оценка. При этом необходимо отделить интересующуюнас в данном случае информацию от мешающей (шумов), что в ряде случаев связаносо значительными трудностями. Простейшим видом восприятия является различениедвух противоположных состояний: наличия («да») и отсутствия («нет»),более сложным — измерение.
На этапеподготовки информации проводятся такие операции, как нормализация,аналого-цифровое преобразование, шифрование. Иногда этот этап рассматриваетсякак вспомогательный на этапе восприятия. В результате восприятия и подготовкиполучается сигнал в форме, удобной для передачи или обработки.
На этапахпередачи и хранения информация пересылается либо из одного места в другое, либоот одного момента времени до другого. Поскольку теоретические задачи,возникающие на этих этапах, близки друг другу, этап хранения информации часто всамостоятельный этап не выделяется. При этом передача информации получает болееширокое толкование. Для передачи на расстояние используются каналы различнойфизической природы, самыми распространенными из которых являются электрическиеи электромагнитные. В последнее десятилетие получил признание такжеперспективный оптический канал. Для хранения информации используются в основномполупроводниковые и магнитные носители. Извлечение сигнала на выходе канала,подверженного действию шумов, носит характер вторичного восприятия.
На этапахобработки информации выявляются ее общие и существенные взаимозависимости,представляющие интерес для системы. Преобразование информации на этапеобработки (как и на других этапах) осуществляется либо средствамиинформационной техники, либо человеком. Если процесс обработки формализуем, онможет выполняться техническими средствами. В современных сложных системах этифункции возлагаются на ЭВМ и микропроцессоры. Если процесс обработки неподдается формализации и требует творческого подхода, обработка информацииосуществляется человеком. В системах управления важнейшей целью обработкиявляется решение задачи выбора управляющих воздействий (этап принятия решения).
Этап отображенияинформации должен предшествовать этапам, связанным с участием человека. Цельэтапа отображения — предоставить человеку нужную ему информацию с помощьюустройств, способных воздействовать на его органы чувств.
На этапевоздействия информация используется для осуществления необходимых изменений всистеме. § В.3. Информационные системы
Совокупностьсредств информационной техники и людей, объединенных для достиженияопределенных целей или для управления, образуют автоматизированнуюинформационную систему, к которой по мере надобности подключаются абоненты(люди или устройства), поставляющие и использующие информацию.
Информационныесистемы, действующие без участия человека, называют автоматическими. Зачеловеком в таких системах остаются функции контроля и обслуживания.
Автоматизированнаяинформационная система становится автоматизированной системой управления (АСУ),если поставляемая информация извлекается из какого-либо объекта (процесса), авыходная используется для целенаправленного изменения состояния того же объекта(процесса), причем абонентом, использующим информацию для выбора основныхуправляющих воздействий (принятия решения), является человек. Объектом могутбыть техническая система, экологическая среда, коллектив людей. Существуют АСУ,в которых отдельные функции управления возлагаются на технические средства, восновном на ЭВМ и микропроцессоры.
Автоматизированныеинформационные системы и АСУ нашли широкое применение во всех отрасляхнародного хозяйства в первую очередь как информационно-справочные иинформационно-советующие системы, системы управления технологическимипроцессами и коллективами людей. Большинство из них являются локальнымисистемами и функционируют на уровне предприятий и учреждений. В настоящее времяпроисходит интенсивный процесс интеграции таких систем в системыпроизводственных объединений и далее — в отраслевые и ведомственные системы.
Системыболее высокого уровня становятся территориально рассредоточенными, иерархичнымикак по функциональному принципу, так и по реализации их техническими средствами.Обеспечение взаимодействия территориально рассредоточенных систем требуетпротяженных высокоскоростных и надежных каналов связи, а увеличение объемаобрабатываемой информации — ЭВМ высокой производительности. Это привело кнеобходимости коллективного использования дорогостоящих средств автоматизации(ЭВМ и линий связи) и обрабатываемой информации (банков и баз данных). Техническоеразвитие, как самих электронных вычислительных машин, так и средств связипозволило, решить эту проблему путем перехода к созданию распределенныхинформационно-вычислительных сетей коллективного пользования.
Централизацияразличных видов информации в одной сети дает возможность использовать ее длярешения широкого спектра задач, связанных с административным управлением,планированием, научными исследованиями, конструкторскими разработками,технологией производства, снабжением, учетом и отчетностью. В недалеком будущемиспользование информационно-вычислительных сетей позволит отказаться оттрадиционных форм массового общения, таких, как телефон, телеграф, почта,отдельные справочные службы.
Наиболеераспространенными информационными системами являются системы, обеспечивающиепередачу информации из одного места в другое (системы связи) и от одногомомента времени до другого (системы хранения информации). Обе разновидностисистем передачи информации имеют много общего в принципиальных вопросахобеспечения эффективности функционирования. Их применяют как самостоятельные системыи как подсистемы в составе любых более сложных информационных систем. Совокупностьтаких подсистем в информационно-вычислительной сети образует ее основное ядро — сеть передачи данных.
Последующееизложение будем вести в основном применительно к системам связи, подразумеваявозможность интерпретации основных понятий и выводов к другим информационнымсистемам. § В.4. Система передачи информации (основныепонятия и определения)
Структурнаясхема одноканальной системы передачи информации приведена на рис. В.2. Информацияпоступает в систему в форме сообщений. Под сообщением понимают совокупностьзнаков или первичных сигналов, содержащих информацию. Источник сообщений вобщем случае образует совокупность источника информации ИИ (исследуемого илинаблюдаемого объекта) и первичного преобразователя ПП (датчика,человека-оператора и т.п.), воспринимающего информацию о его состояниях илипротекающем в нем процессе. Различают дискретные и непрерывные сообщения.
/>
Дискретныесообщения формируются в результате последовательной выдачи источником отдельныхэлементов — знаков. Множество различных знаков называют алфавитом источникасообщений, а число знаков — объемом алфавита. В частности, знаками могут бытьбуквы естественного или искусственного языка, удовлетворяющие определеннымправилам взаимосвязи. Распространенной разновидностью дискретных сообщенийявляются данные.
Непрерывныесообщения не разделимы на элементы. Они описываются функциями времени,принимающими непрерывное множество значений. Типичными примерами непрерывныхсообщений могут служить речь, телевизионное изображение. В ряде систем связинепрерывные сообщения с целью повышения качества передачи преобразуются вдискретные.
Для передачисообщения по каналу связи ему необходимо поставить в соответствие определенныйсигнал. В информационных системах под сигналом понимают физический процесс,отображающий (несущий) сообщение. Преобразование сообщения в сигнал, удобныйдля передачи по данному каналу связи, называют кодированием в широком смыслеслова. Операцию восстановления сообщения по принятому сигналу называютдекодированием.
Так какчисло возможных дискретных сообщений при неограниченном увеличении временистремится к бесконечности, а за достаточно большой промежуток времени весьмавелико, то ясно, что создать для каждого сообщения свой сигнал практическиневозможно. Однако, поскольку дискретные сообщения складываются из знаков,имеется возможность обойтись конечным числом образцовых сигналов,соответствующих отдельным знакам алфавита источника.
Дляобеспечения простоты и надежности распознавания образцовых сигналов их числоцелесообразно сократить до минимума. Поэтому, как правило, прибегают к операциипредставления исходных знаков в другом алфавите с меньшим числом знаков,называемых символами. При обозначении этой операции используется тот же термин «кодирование»,рассматриваемый в узком смысле. Устройство, выполняющее такую операцию,называют кодирующим или кодером К. Так как алфавит символов меньше алфавитазнаков, то каждому знаку соответствует некоторая последовательность символов,которую назовем кодовой комбинацией. Число символов в кодовой комбинацииназывают ее значностью, число ненулевых символов — весом.
Аналогично,для операции сопоставления символов со знаками исходного алфавита используетсятермин «декодирование». Техническая реализация ее осуществляетсядекодирующим устройством или декодером ДК. В простейшей системе связикодирующее, а следовательно, и декодирующее устройство может отсутствовать.
Передающееустройство осуществляет преобразование непрерывных сообщений или знаков всигналы, удобные для прохождения по конкретной линии связи (либо для хранения внекотором запоминающем устройстве). При этом один или несколько параметроввыбранного носителя изменяют в соответствии с передаваемой информацией. Такойпроцесс называют модуляцией. Он осуществляется модулятором М. Обратноепреобразование сигналов в символы производится демодулятором ДМ.
Под линиейсвязи понимают любую физическую среду (воздух, металл, магнитную ленту и т.п.),обеспечивающую поступление сигналов от передающего устройства к приемному. Сигналына выходе линии связи могут отличаться от переданных вследствие затухания,искажения и воздействия помех. Помехами называют любые мешающие возмущения, каквнешние (атмосферные помехи, промышленные помехи), так и внутренние (источникомкоторых является сама аппаратура связи), вызывающие случайные отклоненияпринятых сигналов от переданных. Эффект воздействия помех на различные блокисистемы стараются учесть эквивалентным изменением характеристик линии связи. Поэтомуисточник помех условно относят к линии связи.
Из смесисигнала, и помехи приемное устройство выделяет сигнал и посредством декодеравосстанавливает Сообщение, которое в общем случае может отличаться отпосланного. Меру соответствия принятого сообщения посланному называют верностьюпередачи. Обеспечение заданной верности передачи сообщений — важнейшая цельсистемы связи.
Принятоесообщение с выхода системы связи поступает к абоненту-получателю, которому былаадресована исходная информация.
Совокупностьсредств, предназначенных для передачи сообщений, называют каналом связи. Дляпередачи информации от группы источников, сосредоточенных в одном пункте, кгруппе получателей, расположенных в другом пункте, часто целесообразноиспользовать только одну линию связи, организовав на ней требуемое числоканалов. Такие системы называют многоканальными. § В.5. Уровни проблем передачи информации
Обменинформацией предполагает использование некоторой системы знаков, например,естественного или искусственного (формального) языка. Информация о непрерывныхпроцессах также может быть выражена посредством знаков.
Изучениезнаковых систем наукой о знаках, словах и языках (семиотикой) проводится, покрайней мере, на трех уровнях:
насинтактическом уровне рассматривают внутренние свойства текстов, т.е. отношениямежду знаками, отражающие структуру данной знаковой системы. Внешние свойстватекстов изучают на семантическом и прагматическом уровнях;
насемантическом уровне анализируют отношения между знаками и обозначаемыми имипредметами, действиями, качествами, т.е. смысловое содержание текста, егоотношение к источнику информации;
напрагматическом уровне рассматривают отношения между текстом и теми, кто егоиспользует, т.е. потребительское содержание текста, его отношение к получателю.
Учитываяопределенную взаимосвязь проблем передачи информации с уровнями изучениязнаковых систем, их разделяют на проблемы синтактического, семантического ипрагматического уровней.
Проблемысинтактического уровня касаются создания теоретических основ построения системсвязи, основные показатели функционирования которых были бы близки к предельновозможным, а также совершенствования существующих систем с целью повышенияэффективности их использования. Это чисто технические проблемысовершенствования методов передачи сообщений и их материального воплощения — сигналов.Иначе говоря, на этом уровне интересуют проблемы доставки получателю сообщенийкак совокупности знаков, при этом полностью абстрагируемся от их смыслового ипрагматического содержания [16].
Основуинтересующей нас теории информации составляют результаты решения ряда проблемименно этого уровня. Она опирается на понятие «количество информации»,являющееся мерой частоты употребления знаков, которая никак не отражает нисмысла, ни важности передаваемых сообщений. В связи с этим иногда говорят, чтотеория информации находится на синтактическом уровне.
Проблемысемантического уровня связаны с формализацией смысла передаваемой информации,например, введением количественных оценок близости информации к истине, т.е. оценокее качества. Эти проблемы чрезвычайно сложны, так как смысловое содержаниеинформации больше зависит от получателя, чем от семантики сообщения,представленного в каком-либо языке. Информация заложена в сообщении, нопроявляется она только при взаимодействии с получателем, так как может бытьзашифрована. Из полученной телеграммы адресат может извлечь совершенно другуюинформацию по сравнению с той, которая будет доступна работнику телеграфа. Еслиполучатель — человек, то и незашифрованное (или правильно расшифрованное) сообщениеможет быть понято по-разному. Основная причина состоит в том, что различноепонимание того или иного слова может сильно изменить смысл переданнойинформации. Кроме того, восприятие человеком информации зависит от егоэмоционального состояния, накопленного жизненного опыта и других факторов.
Следуетотметить, что мы еще не умеем измерять семантическую информацию. Имевшие местоподходы к ее измерению пока носили весьма частный характер.
Напрагматическом уровне интересуют последствия от получения и использованияданной информации абонентом. Проблемы этого уровня — это проблемы эффективности.Основная сложность здесь состоит в том, что ценность или потребительскаястоимость информации может быть совершенно различной для различных получателей.Кроме того, она существенно зависит от истинности и прогностичности информации,своевременности ее доставки и использования. Высокие требования в отношениискорости доставки информации часто диктуются тем, что управляющие воздействиядолжны осуществляться в реальном масштабе времени, т.е. со скоростью изменениясостояния управляемых объектов или процессов. Задержки в доставке илииспользовании информации могут иметь катастрофические последствия.
Внаправлении количественного определения прагматического содержания информациисделаны лишь первые шаги. Предложен ряд количественных мер, которые ещенедостаточно конструктивны, чтобы найти широкое практическое применение. Всвязи с созданием информационно-вычислительных сетей ведутся интенсивныеисследования в области оценки старения информации, т.е. потери ее ценности впроцессе доставки [26]. § Β.6. Теорияинформации
Возникновениетеории информации связывают обычно с появлением фундаментальной работыамериканского ученого К. Шеннона «Математическая теория связи» (1948).Однако в теорию информации органически вошли и результаты, полученные другимиучеными, например Р. Хартли, впервые предложившим количественную меруинформации (1928), акад. В.А. Котельниковым, сформулировавшим важнейшую теоремуо возможности представления непрерывной функции совокупностью ее значений вотдельных точках отсчета (1933) и разработавшим оптимальные методы приемасигналов на фоне помех (1946), акад.А.Н. Колмогоровым, внесшим огромный вклад встатистическую теорию колебаний, являющуюся математической основой теорииинформации (1941).
Впоследующие годы теория информации получила дальнейшее развитие в трудахсоветских ученых (А.Н. Колмогорова, А.Я. Хинчина, В.И. Сифорова, Р.Л. Добрушина,М.С. Пинскера, А.Н. Железнова, Л.М. Финка и др.), а также ряда зарубежныхученых (В. Макмиллана, А. Файнстейна, Д. Габора, Р.М. Фано, Ф.М. Вудворта, С. Гольдмана,Л. Бриллюэна и др.).
К теорииинформации в ее узкой классической постановке относят результаты решения рядафундаментальных теоретических вопросов, касающихся повышения эффективностифункционирования систем связи. Это в первую очередь:
анализсигналов как средства передачи сообщений, включающий вопросы оценкипереносимого ими «количества информации»;
анализинформационных характеристик источников сообщений и каналов связи и обоснованиепринципиальной возможности кодирования и декодирования сообщений,обеспечивающих предельно допустимую скорость передачи сообщений по каналусвязи, как при отсутствии, так и при наличии помех.
Прикладныерезультаты приводятся здесь только для пояснения основ теории. При болееширокой трактовке теории информации результаты рассмотрения указанных вопросовсоставляют ее основу.
Еслирасширение связано с приложением теории в технике связи — рассмотрениемпроблемы разработки конкретных методов и средств кодирования сообщений, тосовокупность излагаемых вопросов называют теорией информации и кодирования илиприкладной теорией информации.
Другая точказрения состоит в том, что глобальной проблемой теории информации следуетсчитать разработку принципов оптимизации системы связи в целом. В этом случае кней относят все локальные проблемы систем связи, включая, например, проблемуоптимального приема и др.
Всоответствии с третьей крайней точкой зрения к компетенции теории информацииотносят все проблемы и задачи, в формулировку которых входит понятие информации.Ее предметом считают изучение процессов, связанных с получением, передачей,хранением, обработкой и использованием информации. В такой постановке оназатрагивает проблемы многих наук (в частности, кибернетики, биологии,психологии, лингвистики, педагогики) на всех трех уровнях (синтактическом,семантическом и прагматическом).
Попыткиширокого использования идей теории информации в различных областях наукисвязаны с тем, что в основе своей эта теория математическая. Основные еепонятия (энтропия, количество информации, пропускная способность) определяютсятолько через вероятности событий, которым может быть приписано самое различноефизическое содержание. Подход к исследованиям в других областях науки с позицийиспользования основных идей теории информации получил названиетеоретико-информационного подхода. Его применение в ряде случаев позволилополучить новые теоретические результаты и ценные практические рекомендации. Однаконе редко такой подход приводит к созданию моделей процессов, далеко неадекватных реальной действительности. Поэтому в любых исследованиях, выходящихза рамки чисто технических проблем передачи и хранения сообщений, теориейинформации следует пользоваться с большой осторожностью. Особенно это касаетсямоделирования умственной деятельности человека, процессов восприятия иобработки им информации.
Содержаниеданной книги ограничивается теорией информации в первой трактовке, вопросамитеории и практики кодирования и некоторыми примерами применения теорииинформации в областях, смежных с техникой связи.
Прикладнаятеория информации является одним из фундаментальных курсов при подготовкеинженеров — системотехников, специализирующихся в области автоматизированныхсистем управления. Функционирование таких систем существенным образом связано сполучением, подготовкой, передачей, хранением и обработкой информации,поскольку без осуществления этих этапов невозможно принять правильное решение,а, следовательно, и осуществить требуемое управляющее воздействие, котороеявляется конечной целью функционирования системы.
Контрольныевопросы
1. В чемсущность принципиальных различий в трактовке понятия информации?
2. Каковыосновные этапы обращения информации?
3. Охарактеризуйтеразновидности информационных систем и тенденции их развития.
4. Совокупность,каких объектов составляет систему передачи информации?
5. Чтопонимают под сообщением и сигналом?
6. В чемразличие между линией и каналом связи?
7. Объяснитеразницу в уровнях проблем передачи информации.
8. Каковыосновные задачи теории информации?
9. В чемсущность теоретико-информационного подхода к исследованиям?
Глава 1. Математические модели сигналов§ 1.1 Понятия сигнала и его модели
Какуказывалось во введении, понятие «сигнал» имеет неоднозначноетолкование. В широком смысле слова под сигналом понимают материальный носительинформации. При этом к сигналам относят как естественные сигналы, так исигналы, специально создаваемые с определенной целью. Естественными являются,например, световые сигналы, позволяющие видеть окружающий мир, космическиесигналы. Примером специально создаваемых могут служить сигналы, генерируемые сцелью извлечения информации об изменениях в объекте или процессе (эталонныесигналы).
В дальнейшемпонятие «сигнал», если это не оговорено специально, будетиспользоваться в узком смысле как сигнал, специально создаваемый для передачисообщения в информационной системе. Материальную основу сигнала составляеткакой-либо физический объект или процесс, называемый носителем (переносчиком) информации(сообщения). Носитель становится сигналом в процессе модуляции. Параметрыносителя, изменяемые во времени в соответствии с передаваемым сообщением, называютинформативными.
В качественосителей информации используются колебания различной природы, чаще всегогармонические, включая частный случай — постоянное состояние (ω= 0). В технических информационных системах наиболее широкоераспространение получили носители в виде электрического напряжения или тока. Поэтому,рассматривая в дальнейшем модели сигналов, для конкретности, будем соотноситьих с электрическими сигналами.
В носителе u(t) = const имеется только один информативный параметр — уровень(например, уровень напряжения). При использовании гармонических электрическихколебаний информативными могут стать такие параметры, как амплитуда, частота,фаза. Колебания принято подразделять на детерминированные и случайные.
Детерминированныминазывают колебания, которые точно определены в любые моменты времени.
Случайныеколебания отличаются тем, что значения их некоторых параметров предсказатьневозможно. Они могут рассматриваться как сигналы, когда несут интересующую насинформацию (случайные сигналы), или как помехи, когда мешают наблюдениюинтересующих нас сигналов.
При изученииобщих свойств каналов связи, сигналов и помех мы отвлекаемся от их конкретнойфизической природы, содержания и назначения, заменяя моделями. Модель — этовыбранный способ описания объекта, процесса или явления, отражающийсущественные с точки зрения решаемой задачи факторы.
Задачиповышения эффективности функционирования информационных систем связаны сустановлением количественных соотношений между основными параметрами, характеризующимиисточник информации и канал связи. Поэтому при исследовании используютматематические модели. Математическое моделирование может быть реализованоразличными методами в зависимости от способа, которым определяются интересующиенас показатели.
Фундаментальныеисследования базируются на методе аналитического моделирования, заключающемся всоздании совокупности математических соотношений, позволяющих выявитьзависимости между параметрами модели в общем виде. При этом широко используютсямодели, параметры которых противоречат физическим свойствам реальных объектов. Например,модель сигнала часто представляется суммой бесконечного числа функций, имеющихнеограниченную продолжительность (синусоид). Поэтому важно обращать внимание наусловия, при которых это не мешает получать результаты, соответствующиенаблюдаемым в действительности.
Так какисточник сообщений выдает каждое сообщение с некоторой вероятностью, топредсказать точно изменения значения информативного параметра невозможно. Следовательно,сигнал принципиально представляет собой случайное колебание и его аналитическоймоделью может быть только случайный процесс, определяемый вероятностнымихарактеристиками.
Тем неменее, в случае детерминированного колебания условно так же говорят одетерминированном сигнале. Такой сигнал отображает известное сообщение, котороенет смысла передавать. Ему соответствует модель в виде функции, полностьюопределенной во времени.
Изучениемоделей детерминированных сигналов необходимо по многим причинам. Важнейшая из нихзаключается в том, что результаты анализа детерминированных сигналов являютсяосновой для изучения более сложных случайных сигналов. Это обусловлено тем, чтодетерминированный сигнал может рассматриваться как элемент множествадетерминированных функций, составляющих в совокупности случайный процесс. Детерминированноеколебание, таким образом, представляет собой вырожденную форму случайногопроцесса со значениями параметров, известными в любой момент времени свероятностью, равной единице. Детерминированные сигналы имеют и самостоятельноезначение. Они специально создаются для целей измерения, наладки и регулированияобъектов информационной техники, выполняя роль эталонов. § 1.2 Формы представления детерминированныхсигналов
Взависимости от структуры информационных параметров сигналы подразделяют надискретные, непрерывные и дискретно-непрерывные.
Сигналсчитают дискретным по данному параметру, если число значений, которое можетпринимать этот параметр, конечно (или счетно). Если множество возможныхзначений параметра образует континуум, то сигнал считают непрерывным по данномупараметру. Сигнал, дискретный по одному параметру и непрерывный по другому,называют дискретно-/> />
непрерывным.
Всоответствии с этим существуют следующие разновидности математическихпредставлений (моделей) детерминированного сигнала:
непрерывнаяфункция непрерывного аргумента, например непрерывная функция времени (рис.1.1,а);
непрерывнаяфункция дискретного аргумента, например функция, значения которой отсчитываюттолько в определенные моменты времени (рис.1.1, б);
дискретнаяфункция непрерывного аргумента, например функция времени, квантованная поуровню (рис.1.1, в);
дискретнаяфункция дискретного аргумента, например функция, принимающая одно из конечногомножества возможных значений (уровней) в определенные моменты времени (рис.1.1,г).
Рассматриваемыемодели сигналов в виде функций времени предназначены в первую очередь дляанализа формы сигналов. Желательно найти такое представление сигнала, котороеоблегчает задачи исследования прохождения реальных сигналов, часто имеющихдостаточно сложную форму, через интересующие нас системы. С этой целью сложныесигналы представляются совокупностью элементарных (базисных) функций, удобныхдля последующего анализа.
Наиболееширокий класс исследуемых систем — это инвариантные во времени линейные системы.
При анализепрохождения сложного сигнала u(t) через такие системы его представляют в видевзвешенной суммы базисных функций />(t) (или соответствующего ейинтеграла):
/>
где [/>,/>]- интервал существования сигнала.
Привыбранном наборе базисных функций сигнал u(t) полностью определяетсясовокупностью безразмерных коэффициентов />. Такие совокупности чиселназывают дискретными спектрами сигналов.
На интервале[t/>, t/>] выражение (1.1)справедливо как для сигналов, неограниченных во времени, так и для сигналовконечной длительности. Однако за пределами интервала [t/>, t/>] сигнал конечной длительности неравен нулю, так как он представляется суммой в том случае, если условносчитается периодически продолжающимся. Поэтому, когда для ограниченного вовремени сигнала необходимо получить представление, справедливое для любогомомента времени, используется интеграл:
/> (1.2)
где φ(α, t) — базисная функция снепрерывно изменяющимся параметром />.
В этом случаеимеется непрерывный (сплошной) спектр сигнала, который представляется спектральнойплотностью S(/>). Размерность ее обратнаразмерности />.Аналогом безразмерного коэффициента /> здесь является величина S(/>) d/>.
Совокупностьметодов представления сигналов в виде (1.1) и (1.2) называют обобщеннойспектральной теорией сигналов. В рамках линейной теории спектры являютсяудобной аналитической формой представления сигналов.
Длятеоретического анализа базисные функции /> нужно выбирать так, чтобыони имели простое аналитическое выражение, обеспечивали быструю сходимость ряда(1.1) для любых сигналов u(t) и позволяли легко вычислять значениякоэффициентов />. Базисные функции не обязательнодолжны быть действительными, их число может быть неограниченным />.
В случаепрактической аппроксимации реального сигнала совокупностью базисных сигналоврешающее значение приобретает простота их технической реализации. Сигналпредставляется суммой ограниченного числа /> действительных линейнонезависимых базисных функций (сигналов).
Ортогональныепредставления сигналов. Вычисление спектральных составляющих сигналасущественно облегчается при выборе в качестве базиса системы ортогональныхфункций.
Системуфункций />, />/>(t),..., />,..., />,..., /> называютортогональной на отрезке [t/>, t/>], если для всех k = />; />,за исключением случая k = j, удовлетворяется условие:
/>
Эта системафункций будет ортонормированной (ортонормальной), если для всех /> справедливосоотношение
/>
Еслисоотношение (1.4) не выполняется и
/>
то системуможно нормировать, умножая функции /> на 1//>.
Определимкоэффициенты /> при представлении сигнала u(t) совокупностьюортонормированных функций в виде
/>
предполагая,что интервал [t/>, t/>] лежит внутри отрезкаортогональности [t/>, t/>].
Правую илевую части уравнения (1.5) умножаем на /> и интегрируем, на интервале [t/>, t/>]:
/>
В силусправедливости условия (1.3) все интегралы в правой части выражения (1.6) при /> будут равны 0.При k = j в соответствии с (1.4) интеграл равен 1. Следовательно,
/>
Втеоретических исследованиях обычно используют полные системы ортогональныхфункций, обеспечивающие сколь угодно малую разность непрерывной функции u(t) ипредставляющего ее ряда при неограниченном увеличении числа его членов. Разностьоценивают по критерию
/>
При этомговорят о среднеквадратической сходимости ряда /> к функции u(t).
Широкоизвестной ортонормированной системой является совокупность тригонометрическихфункций кратных аргументов: /> 
/>/> />
Она ортонормальна на отрезке [-π, π].Так как соответствующее разложение исторически появилось первым и было названорядом Фурье, то соотношение (1.5) часто именуют обобщенным рядом Фурье, азначения /> -обобщенными коэффициентами Фурье.
На рис.1.2приведена система функций Хаара, ортонормированность которых на интервале 0-1также очевидна. Известны представления сигналов по системам ортогональныхбазисных многочленов Котельникова, Чебышева, Лаггера, Лежандра и др., а такженеортогональные разложения по функциям Лагранжа, Тейлора и др/>.
Обобщеннаяспектральная теория облегчает решение проблемы обоснованного выбора базисныхфункций для конкретных задач анализа процессов, происходящих при формировании ипрохождении сигналов через те или иные звенья информационной системы. § 1.3 Временная форма представления сигнала
Временнымпредставлением сигнала называют такое разложение сигнала u(t), при котором вкачестве базисных функций используются единичные импульсные функции — дельта-функции.Математическое описание такой функции задается соотношениями
/>
где δ(t) — дельта-функция, отличная от нуля в начале координат(при t = 0).
Для болееобщего случая, когда дельта-функция отличается от нуля в момент времени t=/>(рис.1.3), имеем
/>

Такаяматематическая модель соответствует абстрактному импульсу бесконечно малойдлительности и безграничной величины. Единственным параметром, правильноотражающим реальный сигнал, является время его действия. Однако, учитывая (1.10),с помощью дельта-функции можно выразить значение реального сигнала u(t) в конкретный момент времени ξι:
/>
Равенство (1.11)справедливо для любого текущего момента времени t. Заменив ξιна t и приняв в качестве переменнойинтегрирования ξ, получим
/>
Такимобразом, функция u(t) выражена в виде совокупности примыкающих друг к другуимпульсов бесконечно малой длительности. Ортогональность совокупности такихимпульсов очевидна, так как они не перекрываются во времени.
Разложение (1.12)имеет большое значение в теории линейных систем, поскольку, установив реакциюсистемы на элементарный входной сигнал в виде дельта-функции (импульснуюпереходную функцию), можно легко определить реакцию системы на произвольныйвходной сигнал как суперпозицию реакций на бесконечную последовательностьсмещенных дельта-импульсов с «площадями», равными соответствующимзначениям входного сигнала.
С помощьюдельта-функций можно также представить периодическую последовательностьидеализированных импульсов с постоянными или меняющимися уровнями. Обозначивчерез u/>(t)функцию, равную u(k/>t) в точках t = k/>t и нулю в остальныхточках, запишем:
/>
где Δt — период следования импульсов.
Посколькуумножение u(t) на дельта — функцию в момент времени t = k/>t соответствует получениюотсчета этой функции, uп(k/>t) может представлять результатравномерной дискретизации функции u(t). § 1.4 Частотная форма представления сигнала
Рассмотрим,какие функции целесообразно выбирать в качестве базисных при анализеинвариантных во времени линейных систем. При исследовании таких систем решениявсегда содержат комплексные экспоненциальные функции времени. Детерминированныесигналы, описываемые экспоненциальными функциями времени, при прохождении черезинвариантные во времени линейные системы не изменяются по своему характеру, чтоявляется следствием инвариантности класса экспоненциальных функций относительноопераций дифференцирования и интегрирования.
Широкоиспользуются представления детерминированных сигналов с применением базисныхфункций еpt как при ρ = /> (преобразованиеФурье), так и при p = s+jw (обобщенноепреобразование Фурье, известное как преобразование Лапласа).
До сих пормы не касались физической интерпретации базисных функций. Для чистоматематических преобразований она не обязательна. Однако такая интерпретацияимеет безусловные преимущества, так как позволяет глубже вникнуть в физическийсмысл явлений, протекающих в системах при прохождении сигналов.
Использованиеэкспоненциальных базисных функций в преобразовании Фурье комплексно-сопряженнымипарами (с положительным и отрицательным параметром ω) позволяетв соответствии с формулой Эйлера:
/>
представитьсложный детерминированный сигнал в виде суммы гармонических составляющих. Посколькупараметр ω в этом случае имеет смысл круговойчастоты, результат такого преобразования называют частотной формойпредставления сигнала.
В силууказанных преимуществ разложение сигналов по системе гармонических базисныхфункций подверглось всестороннему исследованию, на основе которого была созданашироко известная классическая спектральная теория сигналов.
Вдальнейшем, если это не оговорено специально, спектральное представлениесигналов рассматривается в рамках классической теории.
Спектрыпериодических сигналов. Периодических сигналов, естественно, не существует, таккак любой реальный сигнал имеет начало и конец. Однако при анализе сигналов вустановившемся режиме можно исходить из предположения, что они существуютбесконечно долго и принять в качестве математической модели таких сигналовпериодическую функцию времени. Далее рассматривается представление такихфункций, как в виде суммы экспоненциальных составляющих, так и спреобразованием их в гармонические.
Пусть функцияu(t), заданная в интервалевремени /> иудовлетворяющая условиям Дирихле, повторяется с периодом T= 2/>/ />= t2-t1 на протяжении времени от — /> до+/>.
УсловияДирихле: на любом конечном интервале функция должна быть непрерывной или иметьконечное число точек разрыва первого рода, а также конечное число экстремальныхточек. В точках разрыва функцию u(t) следует считать равной.
/>
Если вкачестве базисных выбраны экспоненциальные функции, то выражение (1.5) запишемв виде
/>
Соотношение(1.15) представляет собой ряд Фурье в комплексной форме, содержащийэкспоненциальные функции как с положительным, так и с отрицательным параметром ω (двустороннее частотное представление). Составляющие сотрицательными частотами являются следствием комплексной формы записивещественной функции.
Функцию A(jkw1) принято называть комплексным спектромпериодического сигнала u(t). Этот спектр дискретный, так как функция A(jkw1) определена на числовой оси только дляцелых значений k. Значение функции A(jkw1)при конкретном k называют комплексной амплитудой.
Огибающаякомплексного спектра A(jw) имеет вид
/>
Запишемкомплексный спектр в форме
/>
Модулькомплексного спектра A(kw1) называют спектром амплитуд, афункцию φ(kw1) — спектром фаз.
Еслиизвестны спектр амплитуд и спектр фаз сигнала, то в соответствии с (1.15) онвосстанавливается однозначно. В практических приложениях более значимымявляется спектр амплитуд, а информация о фазах составляющих часто несущественна.
Поскольку A(kw1) и φ(kw1) отличны отнуля только при целых k, спектры амплитуд и фаз периодического сигнала являютсядискретными.
Воспользовавшисьформулой Эйлера е — jkwt = coskwt — j sinkwt,выразим комплексный спектр A(jkw1) ввиде действительной и мнимой частей:
/>
где
/>
Спектрамплитуд
/>
являетсячетной функцией k, т.е.
/>
Посколькучетность Ak и Вk, противоположна, спектр фаз
/>
функция нечетная,т.е.
/>
При k = 0получаем постоянную составляющую
/>
Отдвустороннего спектрального представления легко перейти к одностороннему (неимеющему отрицательных частот), объединяя комплексно-сопряженные составляющие [см.(1.14)]. В этом случае получаем ряд Фурье в тригонометрической форме. Действительно,выделив в (1.15) постоянную составляющую A0/2 и суммируясоставляющие симметричных частот ω и — ω,имеем
/>
Учитываясоотношения (1.15) и (1.16), запишем
/>
Воспользовавшисьформулой Эйлера (1.14) и обозначив φ(kw1) через φk,окончательно получим
/>
Распространенаи другая тригонометрическая форма ряда Фурье, имеющая вид
/>
Однако онаменее удобна для практического применения. Отдельные составляющие впредставлениях (1.23) и (1.24) называют гармониками. Как спектр амплитуд, так испектр фаз периодического сигнала удобно представлять наглядно спектральнымидиаграммами. На диаграмме спектра амплитуд каждой гармонике ставится всоответствие вертикальный отрезок, длина которого пропорциональна амплитуде, арасположение на оси абсцисс отвечает частоте этой составляющей. Аналогично надиаграмме спектра фаз обозначают значения фаз гармоник. Поскольку в результатеспектры отображаются совокупностями линий, их часто называют линейчатыми.
Отметим, чтодискретный (линейчатый) спектр не обязательно должен принадлежатьпериодическому сигналу. Спектр периодического сигнала характеризуетсовокупность гармоник, кратных основной частоте ωι. Линейчатыеспектры, включающие гармоники некратных частот, принадлежат так называемымпочти периодическим сигналам. Диаграмма спектра амплитуд периодического сигналапоказана на рис.1.4 Огибающую A(t)этого спектра амплитуд можно получить, заменив kw1 в A(kw1) на ω, где ω =kω1 для k-й гармоники.
/>
Пример 1.1 Определитьспектры амплитуд и фаз периодической последовательности прямоугольных импульсовдлительностью τ и амплитудой u0,следующих с частотой ω1 = 2π / Τ (рис.1.5).
Функция u(t),описывающая такую последовательность импульсов на периоде, может быть задана ввиде:
/>
Всоответствии с (1.16) имеем
/>
или
/>
Амплитудыгармоник, включая постоянную составляющую, равную А0/2, определим из выражения
/>
при k = О,1, 2,…
/>

Выбор начала отсчета времени на их величину не влияет. Огибающая спектраамплитуд определяется видом функции
/>
При ω = 0 получаем
/>
Характеризменения амплитуд диктуется функцией sin х / х и не зависит от частотыследования импульсов. На частотах, кратных 2π / τ, огибающаяспектра равна нулю.
На рис.1.6приведена диаграмма спектра амплитуд для случая
Τ / τ = 3 [ω1 = 2π / (3τ)]. Числосоставляющих в спектре бесконечно велико. Крутизна фронтов импульсовобусловлена наличием в спектре составляющих с частотами, существеннопревышающими основную частоту ω1.
/>
Опираясь наформулу (1.29) и принимая во внимание, что знаки функции sin(kw1/>/ 2) на последовательности интервалов частот Δω= 2π / τ чередуются,выражение для спектра фаз запишем следующим образом:
/>
где n — номер интервала частот />ω = 2π / τ, отсчитываемого от ω = 0.
Спектр фаззависит от выбора начала отсчета. Если передний фронт прямоугольного импульса последовательностиприходится на начало отсчета времени, то на каждом интервале Δω= 2π / τ фазы составляющих возрастают линейно. Диаграммаспектра фаз последовательности прямоугольных импульсов для этого случая (Τ / τ = 3, t1 = 0) показана на рис.1.7
Пример 1.2 Вычислитьнесколько первых членов ряда Фурье для периодической последовательностипрямоугольных импульсов и проследить, как их гумма сходится к указанномусигналу.
Воспользуемсярезультатами предыдущего примера для случая широко используемой на практикепериодической последовательности импульсов, у которых длительность τ равна половине периода Т. Примем также t1 = 0.
По формуле (1.32)определим постоянную составляющую, а по формулам (1.30) и (1.33) — амплитуды ифазы пяти первых гармоник. Данные расчетов сведены в табл.1.1 Четные гармоникив табл.1.1 не указаны, так как они равны нулю.
Таблица 1.1
/>
Суммируяуказанные составляющие, получим последовательность импульсов (рис.1.8),отличающихся от прямоугольных в основном недостаточно высокой крутизной фронтов.
Отметим, чтокрутизна фронтов импульсов обусловлена наличием в их спектре составляющих счастотами, многократно превышающими основную частоту.
Распределениеэнергии в спектре. Рассмотрим, как распределяется энергия сложногопериодического сигнала u(t) по его спектральным составляющим. Под временнойфункцией u(t) будем подразумевать электрическое напряжение на резисторе в 1 Ом.Энергия WT, выделяемая на этом резисторе за время, равное периоду колебаний Т,
/>
Используяспектральное представление u(t) в виде ряда Фурье (1.15), получим
/>
Определимзначения интегралов в выражении (1.35):
/>
Так как A(jkw1) и А(-jkw1) комплексно сопряжены, то
/>
С учетом (1.28)и (1.29) выражение для WT существенно упрощается:
/>
Из (1.38) следует,что средняя за период энергия сложного периодического сигнала равна суммесредних энергий, выделяемых на резисторе в 1 Ом каждой его гармоникой вотдельности (включая постоянную составляющую).
С течениемвремени выделяемая энергия безгранично растет, при этом средняя мощностьостается постоянной:
/>
Важноотметить, что она не зависит от фаз отдельных гармоник и, следовательно, будетсохранять свое значение при изменениях формы сигнала, обусловленных нарушениямифазовых соотношений гармоник спектра.
Пример 1.3 Определим,какая часть средней мощности, выделяемой на резисторе с сопротивлением в 1 Ом,периодической последовательностью прямоугольных импульсов с параметрами изпримера 1.2 приходится на пять первых гармоник и постоянную составляющую.
Значенияамплитуд составляющих определены ранее (см. табл.11). Подставляя их в (1.39),для средней мощности Р5 сигнала, включающего указанные составляющие, получим
/>
Так каксредняя мощность последовательности прямоугольных импульсов при τ=Т / 2 равна 0,5 />, то искомая частьсоставляет 96% от этой мощности.
Областьчастот, в которой сосредоточена подавляющая часть мощности периодическогосигнала, называют практической шириной его спектра. Если не предъявляетсяжестких требований относительно крутизны фронтов импульсов (см. пример 1 2),расширение этой области нецелесообразно.
Спектрынепериодических сигналов. Любой физически реализуемый сигнал ограничен вовремени и обладает конечной энергией. Функции, отображающие реальные сигналы,удовлетворяют условиям Дирихле и абсолютно интегрируемы, т.е.
/>
где M — конечная величина.
Модели такихсигналов также могут быть представлены совокупностью гармонических составляющихв соответствии с выражением (1.2). Конкретный вид спектрального преобразованиядля непериодического сигнала получим, проследив изменения, происходящие вспектре периодической последовательности импульсов u1(t) при увеличении периодаих повторения.
Всоответствии с формулой (1.30), которая справедлива для любого значения периодаТ, абсолютные значения амплитуд спектральных составляющих в (1.27) приувеличении периода уменьшаются. Так как частоты составляющих спектра кратныосновной частоте, то при ее уменьшении линии на спектральной диаграммесближаются.
Спектральноепредставление для одиночного импульса u(t) получим какследствие увеличения периода сигнала u1(t) до бесконечности.
Парупреобразований Фурье для периодической функции u1(t) запишем в форме (1.15) и (1.16):
/>
При T/>u1(t) переходит в u(t), частотаω1 уменьшается до dw, а kw1 превращается в текущую частоту ω. Заменяя суммирование интегрированием, находим
/>
Обозначив интегралв квадратных скобках S(jω), получимформулы для прямого и обратного интегрального преобразования Фурье:
/>
Величину S(jω) называют комплекснойспектральной плотностью или спектральной характеристикой. Она имеет размерность[амплитуда / частота]. На каждой конкретной частоте амплитуда соответствующейсоставляющей равна нулю. Сравнивая (1.15) и (1.42), находим, что бесконечномалому интервалу частоты dω соответствуетсоставляющая с бесконечно малой комплексной амплитудой dA(jw):
/>
Сравнениевыражения (1.41) для спектральной характеристики функции u(t), заданной наинтервале времени />, с формулой (1.17) для огибающейкомплексного спектра такой же функции, периодически продолжающейся во времени,показывает, что они различаются только множителем:
/>
Поэтому поизвестной спектральной характеристике одиночного импульса легко построитьлинейчатый спектр их периодической последовательности. Соотношением (1.44) объясняетсяи тот факт, что для различных представлений спектральной характеристики имеютместо формулы, весьма похожие на (1.18) — (1.24).
Каккомплексная величина спектральная характеристика может быть записана в виде
/>
где S(ω) = |S(jω) | называется спектральнойплотностью амплитуд или спектром непериодического сигнала.
Так каксоставляющие расположены на всех частотах, то спектр непериодического сигналаявляется непрерывным или сплошным. Представим спектральную характеристикусостоящей из действительной и мнимой частей:
/>
где
/>
Модульспектральной характеристики S(ω) определяетсявыражением
/>
ипредставляет собой четную функцию частоты.
Для фазыспектральной характеристики S(jω) соответственнополучаем
/>
Так как из (1.42)и (1.43) следует, что A(ω) — четнаяфункция частоты, а B(ω) — нечетная,то функция φ(ω) относительно частоты нечетна.
Комплекснаяформа интегрального преобразования Фурье легко приводится к тригонометрической:
/>
Второй членв связи с нечетностью подынтегрального выражения равен нулю. Окончательно имеем
/>
Преимуществотригонометрической формы записи Фурье-преобразования заключается в возможностинекоторого физического толкования с использованием идеализации, не оченьдалеких от реальности.
Пример 1.4 Найтиспектр одиночного прямоугольного импульса, описываемого функцией времени (рис.1.9):
/>
Выражениедля спектральной характеристики амплитуд находим в соответствии с (1.41)
/>
/>
Искомыйспектр представляет собой модуль этого выражения:
/>
Спектродиночного прямоугольного импульса (рис.1.10), естественно [см. (1.44)], имеетту же форму, что и огибающая периодической последовательности таких импульсов(см. рис.1.6).
/>
Пример 1.5 Определитьспектр дельта-функции [см. соотношения (1.10) и рис.1.3].
Запишемвыражение для спектральной характеристики Sd(jw) дельта-функции, сосредоточенной в точке />:
/>
Всоответствии с (1.11) имеем
/>
откудамодуль спектральной характеристики
/>
Следовательно,дельта-функции соответствует сплошной равномерный спектр, включающий в себясоставляющие бесконечно больших частот (рис.1.11). При ξι= 0 начальные фазы всех составляющих равны нулю.
/>

Распределениеэнергии в спектре. Рассмотрим непериодический сигнал u(t), физическим представлением которого будем считатьэлектрическое напряжение на резисторе с сопротивлением в 1 Ом.
Тогдаэнергия, выделяемая на этом резисторе
/>
Впредположении, что интеграл (1.54) сходится, выразим энергию через модульспектральной характеристики S(ω) сигналаu(t). Квадрат этого модуля запишем в виде
/>
где
/>
функция, комплексно-сопряженнаяспектральной характеристике S(jω) сигналаu(t). Тогда
/>
Послеизменения последовательности интегрирования и использования обратногопреобразования Фурье (1.42) получим
/>
Окончательноимеем
/>
Соотношение(1.56) известно как равенство Парсеваля. Оказывается, что энергию, выделяемуюнепериодическим сигналом за время его существования, можно определить,интегрируя квадрат модуля его спектральной характеристики в интервале частот.
Каждое избесконечно малых слагаемых (1/π) |S(ω) |2dω, соответствующихбесконечно малым участкам спектра, характеризует энергию, приходящуюся наспектральные составляющие сигнала, сосредоточенные в полосе частот от ω до ω + dω. § 1.5 Соотношения между длительностью импульсов ишириной их спектров
Анализируяспектр одиночного прямоугольного импульса (см. рис.1.10), можно установить, чтопри увеличении его длительности τ от 0 до /> спектрсокращается от безграничного (у дельта-функции) до одной спектральной линии вначале координат, соответствующей постоянному значению сигнала. Это свойствосокращения ширины спектра сигнала при увеличении его длительности и наоборотсправедливо для сигналов любой формы. Оно вытекает непосредственно изособенностей прямого и обратного интегрального преобразования Фурье, у которыхпоказатель степени экспоненциальной функции в подынтегральных выражениях имеетпеременные t и ω в виде произведения.
Рассмотримфункцию u(t) определенной продолжительности и функцию u(/>t), длительность которойпри λ>1 будет в λ разменьше. Считая, что u(t) имеет спектральную характеристику S(jω), найдем соответствующую характеристику S/>(jω) для u(/>t):
/>
где />=λt.
Следовательно,спектр укороченного в λ раз сигнала ровно в λ раз шире. Коэффициент l / λ передS(jω / λ) изменяеттолько амплитуду гармонических составляющих и на ширину спектра не влияет.
Другойважный вывод, также являющийся прямым следствием Фурье-преобразования,заключается в том, что длительность сигнала и ширина его спектра не могут бытьодновременно ограничены конечными интервалами: если длительность сигналаограничена, то спектр его неограничен, и, наоборот, сигнал с ограниченнымспектром длится бесконечно долго. Справедливо соотношение
/>
где Δt — длительность импульса; Δf — ширинаспектра импульса; С — постоянная величина, зависящая от формы импульса (приориентировочных оценках обычно принимают С=1).
Реальныесигналы ограничены во времени, генерируются и передаются устройствами,содержащими инерционные элементы (например, емкости и индуктивности вэлектрических цепях), и поэтому не могут содержать гармонические составляющиесколь угодно высоких частот.
В связи сэтим возникает необходимость ввести в рассмотрение модели сигналов, обладающиекак конечной длительностью, так и ограниченным спектром. При этом в соответствиис каким-либо критерием дополнительно ограничивается либо ширина спектра, либодлительность сигнала, либо оба параметра одновременно. В качестве такогокритерия используется энергетический критерий, согласно которому практическуюдлительность Тп и практическую ширину спектра wпвыбирают так, чтобы в них была сосредоточена подавляющая часть энергии сигнала.
Длясигналов, начинающихся в момент времени t0 = О, практическая длительностьопределяется из соотношения
/>
где η — коэффициент, достаточно близкий к 1 (от 0,9 до 0,99 взависимости от требований к качеству воспроизведения сигнала).
Принимая вовнимание равенство Парсеваля (1.56), для практической ширины спектра сигналасоответственно имеем
/>§ 1.6 Спектральная плотность мощностидетерминированного сигнала
Величина />,характеризующая распределение энергии по спектру сигнала и называемаяэнергетической спектральной плотностью, существует лишь для сигналов, У которыхэнергия за бесконечный интервал времени конечна и, следовательно, к нимприменимо преобразование Фурье.
Длянезатухающих во времени сигналов энергия бесконечно велика и интеграл (1.54) расходится.Задание спектра амплитуд невозможно. Однако средняя мощность Рср, определяемаясоотношением
/>
оказываетсяконечной. Поэтому применяется более широкое понятие «спектральнаяплотность мощности». Определим ее как производную средней мощности сигналапо частоте и обозначим Ρk(ω):
/>
Индексом k подчеркивается,что здесь мы рассматриваем спектральную плотность мощности как характеристикудетерминированной функции u(t),описывающей реализацию сигнала.
Этахарактеристика сигнала менее содержательна, чем спектральная плотностьамплитуд, так как лишена фазовой информации [см. (1.38)]. Поэтому однозначновосстановить по ней исходную реализацию сигнала невозможно. Однако отсутствиефазовой информации позволяет применить это понятие к сигналам, у которых фазане определена.
Дляустановления связи между спектральной плотностью Ρk(ω) испектром амплитуд воспользуемся сигналом u(t), существующим на ограниченноминтервале времени (-T
/>
где /> - спектральнаяплотность мощности сигнала, ограниченного во времени.
В дальнейшембудет показано (см. § 1.11), что, усредняя эту характеристику по множествуреализаций, можно получить спектральную плотность мощности для большого классаслучайных процессов. § 1.7 Функция автокорреляции детерминированногосигнала
Теперь вчастотной области имеется две характеристики: спектральная характеристика испектральная плотность мощности. Спектральной характеристике, содержащей полнуюинформацию о сигнале u(t), соответствует преобразование Фурье в виде временнойфункции. Выясним, чему соответствует во временной области спектральнаяплотность мощности, лишенная фазовой информации.
Следуетпредположить, что одной и той же спектральной плотности мощности соответствуетмножество временных функций, различающихся фазами. Советским ученым Л.Я. Хинчиными американским ученым Н. Винером практически одновременно было найдено обратноепреобразование Фурье от спектральной плотности мощности:
/>
где
/>
Обобщеннуювременную функцию r(t),не содержащую фазовой информации, назовем временной автокорреляционной функцией.Она показывает степень связи значений функции u(t), разделенных интерваломвремени t, и может быть получена изстатистической теории путем развития понятия коэффициента корреляции. Отметим,что во временной функции корреляции усреднение проводится по времени в пределаходной реализации достаточно большой продолжительности.
Справедливои второе интегральное соотношение для пары преобразования Фурье:
/>
Пример 1.6 Определитьвременную функцию· автокорреляции гармонического сигнала u(t) = u0 cos(wt-φ). Всоответствии с (1.64)
/>
Проведянесложные преобразования
/>
окончательноимеем
/>
Как и следовалоожидать, ru(t) независит от φ и, следовательно, (1.66) справедливо дляцелого множества гармоник, различающихся фазами. § 1.8 Случайный процесс как модель сигнала
Рассмотренныематематические модели детерминированных сигналов являлись известными функциямивремени. Их использование позволяет успешно решать задачи, связанные сопределением реакций конкретных систем на заданные входные сигналы. Случайныесоставляющие, всегда имеющие место в реальном входном сигнале, считают при этомпренебрежимо малыми и не принимают во внимание.
Однакоединственная точно определенная во времени функция не может служитьматематической моделью сигнала при передаче и преобразовании информации. Посколькуполучение информации связано с устранением априорной неопределенности исходныхсостояний, однозначная функция времени только тогда будет нести информацию,когда она с определенной вероятностью выбрана из множества возможных функций. Поэтомув качестве моделей сигнала используется случайный процесс. Каждая выбраннаядетерминированная функция рассматривается как реализация этого случайногопроцесса.
Необходимостьприменения статистических методов исследования диктуется и тем, что вбольшинстве практически важных случаев пренебрежение воздействием помехи впроцессах передачи и преобразования информации недопустимо. Считается, чтовоздействие помехи на полезный сигнал проявляется в непредсказуемых искаженияхего формы. Математическая модель помехи представляется также в виде случайногопроцесса, характеризующегося параметрами, определенными на основеэкспериментального исследования. Вероятностные свойства помехи, как правило,отличны от свойств полезного сигнала, что и лежит в основе методов ихразделения.
Учитывая,что все фундаментальные выводы теории информации базируются на указанномстатистическом подходе при описании сигналов (и помех), уточним основныехарактеристики случайного процесса как модели сигнала.
Подслучайным (стохастическим) процессом подразумевают такую случайную функциювремени U(t), значения которой в каждый момент времени случайны. Конкретный видслучайного процесса, зарегистрированный в определенном опыте, называютреализацией случайного процесса. Точно предсказать, какой будет реализация вочередном опыте, принципиально невозможно. Могут быть определены лишьстатистические данные, характеризующие все множество возможных реализаций,называемое ансамблем. Ценность таких моделей сигналов в том, что появляетсявозможность судить о поведении информационной системы не по отношению кконкретной реализации, а по отношению ко всему ансамблю возможных реализаций.
Основнымипризнаками, по которым классифицируются случайные процессы, являются: пространствосостояний, временной параметр и статистические зависимости между случайнымивеличинами U(ti) в разные моменты времени ti.
Пространствомсостояний называют множество возможных значений случайной величины U(ti). Случайныйпроцесс, у которого множество состояний составляет континуум, а изменениясостояний возможны в любые моменты времени, называют непрерывным случайнымпроцессом. Если же изменения состояний допускаются лишь в конечном или счетномчисле моментов времени, то говорят о непрерывной случайной последовательности.
Случайныйпроцесс с конечным множеством состояний, которые могут изменяться впроизвольные моменты времени, называют дискретным случайным процессом. Если жеизменения состояний возможны только в конечном или счетном числе моментоввремени, то говорят о дискретных случайных последовательностях.
Примерыреализаций указанных случайных процессов представлены на рис.1.1
Так как всовременных информационных системах предпочтение отдается цифровым методампередачи и преобразования информации, то непрерывные сигналы с датчиков, какправило, преобразуются в дискретные, описываемые дискретными случайнымипоследовательностями. Вопросы такого преобразования рассмотрены в гл.2.
Средислучайных процессов с дискретным множеством состояний нас будут интересоватьтакие, у которых статистические зависимости распространяются на ограниченноечисло k следующих друг за другом значений. Они называются обобщеннымимарковскими процессами k-го порядка.
Вероятностныехарактеристики случайного процесса. В соответствии с определением случайныйпроцесс U(t) может быть описан системой N обычнозависимых случайных величин U1 = U(t1),..., Ui= U(ti),...,UN = U(tN), взятых в различные моменты времени t1… ti… tN. Принеограниченном увеличении числа N такая система эквивалентна рассматриваемомуслучайному процессу U(t).
Исчерпывающейхарактеристикой указанной системы является N-мернаяплотность вероятности pN(U1,..., Ui,..., UN; t1,..., tN). Она позволяетвычислить вероятность РN реализации, значения которой вмоменты времени t1,t2,...,tN будут находитьсясоответственно в интервалах (u1, u1+Δu1),..., (ui, ui+/>ui),..., (uN, uN + />uN), где ui(1/>) — значение,принимаемое случайной величиной Ui, (рис.1.12).
/>
Если Δui, выбраны достаточно малыми, то справедливо соотношение
/>
Получение N-мерной плотности вероятности на основе экспериментапредполагает статистическую обработку реализаций, полученных одновременно отбольшого числа идентичных источников данного случайного процесса. При больших Nэто является чрезвычайно трудоемким и дорогостоящим делом, а последующееиспользование результатов наталкивается на существенные математическиетрудности.
На практикев таком подробном описании нет необходимости. Обычно ограничиваются одно — илидвумерной плотностью вероятности.
Одномернаяплотность вероятности p1(U1; t1) случайного процесса U(t) характеризует распределениеодной случайной величины U1, взятой в произвольный момент времени t1. В ней ненаходит отражения зависимость случайных величин в различные моменты времени.
Двумернаяплотность вероятности p2 = p2(U1, U2; t1, t2) позволяетопределить вероятность совместной реализации любых двух значений случайныхвеличин U1 и U2 в произвольные моменты времени t1 и t2 и,следовательно, оценить динамику развития процесса. Одномерную плотностьвероятности случайного процесса U(t) можно получить из двумерной плотности,воспользовавшись соотношением
/>
Использованиеплотности вероятности даже низших порядков в практических приложениях частоприводит к неоправданным усложнениям. В большинстве случаев оказываетсядостаточно знания простейших характеристик случайного процесса, аналогичныхчисловым характеристикам случайных величин. Наиболее распространенными из нихявляются моментные функции первых двух порядков: математическое ожидание идисперсия, а также корреляционная функция.
Математическиможиданием случайного процесса U(t) называют неслучайную функцию времени mu(t1),которая при любом аргументе t1 равна среднему значению случайной величины U(t\)по всему множеству возможных реализаций:
/>
Степеньразброса случайных значений процесса U(t1) от своего среднего значения mu(t1) для каждого t1 характеризуетсядисперсией Du(t1):
/>
где />(t1) = U(t1) — mu(t1)- центрированная случайная величина.
Дисперсия Du(t1)в каждый момент времени t1 равна квадрату среднеквадратического отклонения su(t1):
/>
Случайныепроцессы могут иметь одинаковые математические ожидания и дисперсии (рис.1.13,а, б), однако резко различаться по быстроте изменений своих значений во времени.
/>
Для оценки степени статистической зависимости мгновенных значений процесса U(t)в произвольные моменты времени t1 и t2 используется неслучайная функцияаргументов Ru(t1,t2), называемая автокорреляционной или просто корреляционнойфункцией.
Приконкретных аргументах t1 и t2 она равна корреляционномумоменту значений процесса U(t1) и U(t2):
/>
Через двумернуюплотность вероятности выражение (1.71) представляется в виде
/>
В силусимметричности этой формулы относительно аргументов справедливо равенство
/>
Длясравнения различных случайных процессов вместо корреляционной функции удобнопользоваться нормированной функцией автокорреляции:
/>
Из сравнения(1.69) и (1.70) следует, что при произвольном t1 = t2 автокорреляционная функция вырождается в дисперсию:
/>
а нормированнаяфункция автокорреляции равна единице:
/>
Следовательно,дисперсию случайного процесса можно рассматривать как частное значениеавтокорреляционной функции.
Аналогичноустанавливается мера связи между двумя случайными процессами U(t) и V(t). Онаназывается функцией взаимной корреляции:
/>§ 1.9 Стационарные и эргодические случайныепроцессы
Случайныепроцессы различаются по степени однородности протекания их во времени. В общемслучае процесс может иметь определенную тенденцию развития и характеристики,зависящие от начала отсчета времени. Такие случайные процессы называютсянестационарными.
Для описаниясигнала математическая модель в виде нестационарного случайного процессаподходит наилучшим образом, но неконструктивна в силу своей чрезмернойсложности.
Поэтому оченьчасто вводят предположение о стационарности случайного процесса, что позволяетсущественно упростить математический аппарат исследования.
Случайныйпроцесс называют стационарным в узком смысле, если выражения для плотностейвероятности не зависят от начала отсчета времени, т.е. справедливо соотношение
/>
где U/>-случайнаявеличина, отражающая значение процесса в момент времени t = ti + τ (τ — произвольное число).
Иначеговоря, стационарность процесса предполагает его существование и статистическуюоднородность во всем диапазоне времени от — /> до +/>.
Такоепредположение противоречит физическим свойствам реальных сигналов, в частноститому, что всякий реальный сигнал существует лишь в течение конечного отрезкавремени. Однако аналогично установившимся детерминированным процессам случайныепроцессы, протекающие в установившемся режиме системы при неизменных внешнихусловиях на определенных отрезках времени, с известным приближением можнорассматривать как стационарные.
При решениимногих технических задач идут на дальнейшее упрощение модели, рассматриваяслучайный процесс стационарным в широком смысле. Процесс U(t) принято называтьстационарным в широком смысле, если выполняется условие постоянстваматематического ожидания и дисперсии, а корреляционная функция не зависит отначала отсчета времени и является функцией только одного аргумента τ = t2 — t1, т.е.
/>
Так какусловие постоянства дисперсии является частным случаем требования ккорреляционной функции при τ = 0:
/>
товыполнения соотношений (1.79) и (1.81) достаточно, чтобы рассматриватьслучайный процесс U(t) как стационарный.
Всякийстационарный случайный процесс является стационарным в широком смысле. Вдальнейшем, если это не оговорено особо, стационарность будем рассматривать вшироком смысле.
Случайныепроцессы, наблюдаемые в устойчиво работающих реальных системах, имеют конечноевремя корреляции. Поэтому для стационарных процессов, представляющихпрактический интерес, справедливо соотношение
/>
Если дляслучайного процесса равенства (1.79), (1.81) не выдерживаются, но наинтересующем нас интервале времени изменением указанных параметров можнопренебречь, его называют квазистационарным.
Средистационарных случайных процессов многие удовлетворяют свойству эргодичности. Онопроявляется в том, что каждая реализация случайного процесса достаточнойпродолжительности несет практически полную информацию о свойствах всегоансамбля реализаций, что позволяет существенно упростить процедуру определениястатистических характеристик, заменяя усреднение значений по ансамблюреализаций усреднением значений одной реализации за длительный интервал времени.
Следовательно,для стационарных эргодических процессов справедливы соотношения
/>
где u(t) — конкретнаяреализация случайного процесса U(t).
Результатыисследования случайных процессов в их временном представлении, т.е. сиспользованием формул (1.83) и (1.85), лежат в основе корреляционной теориисигналов.
Дляоблегчения практического определения корреляционных функций в соответствии с (1.85)серийно выпускаются специальные вычислительные устройства — коррелометры(корреляторы). § 1.10 Спектральное представление случайныхсигналов
В § 1.2 былапоказана эффективность представления детерминированных сигналов совокупностьюэлементарных базисных сигналов для облегчения анализа прохождения их черезлинейные системы. Аналогичный подход может быть использован и в случаесигналов, описываемых случайными процессами [21].
Рассмотримслучайный процесс U(t), имеющий математическое ожидание mu(t). Соответствующийцентрированный случайный процесс />(t) характеризуется в любой моментвремени t1 центрированной случайной величиной />(t1):
/>
Центрированныйслучайный процесс />(t) можно, как и ранее [см. (1.1)],выразить в виде конечной или бесконечной суммы ортогональных составляющих,каждая из которых представляет собой неслучайную базисную функцию jk(t) с коэффициентомCk, являющимся случайной величиной. В результате имеем разложениецентрированного случайного процесса />/>(t):
/>/>
Случайныевеличины Сk называются коэффициентами разложения. Вобщем случае они статистически зависимы, и эта связь задается матрицейкоэффициентов корреляции />. Математические ожиданиякоэффициентов разложения равны нулю. Неслучайные базисные функции принятоназывать координатными функциями.
Дляконкретной реализации коэффициенты разложения являются действительнымивеличинами и определяются по формуле (1.7).
Предположив,что
/>
детерминированнуюфункцию mu(f) в (1.86) на интервале — T
/>
Подставляя (1.87а) и (1.876) в (1.86) для случайного процесса U(t) с отличным от нуля средним,получим
/>
Выражениеслучайного процесса в виде (1.87 в) позволяет существенно упростить еголинейные преобразования, поскольку они сводятся к преобразованиям
детерминированныхфункций [mu(t), />jk(t)],а коэффициенты разложения, являющиеся случайными величинами, остаютсянеизменными.
Чтобыопределить требования к координатным функциям, рассмотрим корреляционнуюфункцию процесса />(t), заданную разложением
/>
Так как
/>
то
/>
Соотношение(1.88) становится значительно проще, если коэффициенты {Ck}некоррелированы (Rkl = 0 при k />l, Rkl = 1при k = l):
/>
В частности,при t1 = t2 = t получим дисперсию случайного процесса U(t):
/>
Поэтомуцелесообразно выбирать такие координатные функции, которые обеспечиваютнекоррелированность случайных величин {Сk}. Разложение(1.87), удовлетворяющее этому условию, называют каноническим разложением.
Доказано [21],что по известному каноническому разложению корреляционной функции случайногопроцесса можно записать каноническое разложение самого случайного процесса стеми же координатными функциями, причем дисперсии коэффициентов этогоразложения будут равны дисперсиям коэффициентов разложения корреляционнойфункции.
Такимобразом, при выбранном наборе координатных функций центрированный случайныйпроцесс характеризуется совокупностью дисперсий коэффициентов разложения,которую можно рассматривать как обобщенный спектр случайного процесса.
Вканоническом разложении (1.87) этот спектр является дискретным (линейчатым) иможет содержать как конечное, так и бесконечное число членов (линий).
Однакоиспользуются и интегральные канонические разложения в форме (1.2). В этомслучае мы имеем непрерывный спектр, представляемый спектральной плотностьюдисперсии.
Основным препятствиемк широкому практическому использованию канонических разложений случайныхпроцессов является сложность процедуры нахождения координатных функций. Однакодля ряда стационарных случайных процессов эта процедура вполне приемлема. § 1.11 Частотное представление стационарныхслучайных сигналов
Дискретныеспектры. Корреляционную функцию Ru(t) (рис.1.14) стационарного случайногопроцесса, заданного на конечном интервале времени [-Т, Т], можно разложить вряд Фурье (1.15), условно считая ее периодически продолжающейся с периодом 4T (при — T
/>
где
/>

/>
Учитывая, чтоRu(t) является четнойфункцией, имеем
/>
Положив τ = t1 — t2, находим
/>
что согласно(1.89) представляет собой каноническое разложение корреляционной функции. Понему, как было указано ранее, получаем каноническое разложение случайногопроцесса:
/>
причем
/>
Выражение (1.95)записано для случайного процесса с нулевой постоянной составляющей, чтохарактерно для многих реальных сигналов. В общем случае в правую часть этоговыражения необходимо добавить постоянную величину, соответствующуюматематическому ожиданию случайного процесса (mu). Корреляционнаяфункция при этом не изменяется.
Очевидно,что при попарном объединении экспоненциальных составляющих с одинаковымиположительными и отрицательными индексами k каноническое разложение (1.95) приводитсяк тригонометрической форме.
Такимобразом, стационарный случайный процесс на ограниченном интервале времени можнопредставить совокупностью гармонических составляющих различных частот самплитудами, являющимися некоррелированными случайными величинами,математические ожидания которых равны нулю:
/>
где
/>
Наспектральной диаграмме такого процесса каждой гармонике ставится в соответствиевертикальный отрезок, длина которого пропорциональна дисперсии ее амплитуды, арасположение на оси абсцисс отвечает частоте (рис.1.15).
/>
Чтобыполучить описание стационарного случайного процесса в точном смысле, т.е. справедливоедля любого момента времени на бесконечном интервале — />, необходимо перейти кинтегральному каноническому разложению.
Непрерывныеспектры. Интегральное каноническое разложение для корреляционной функцииполучим из формулы (1.91) путем предельного перехода при Т/>. Увеличение интервалавремени, на котором наблюдается случайный процесс, сопровождается уменьшениемзначений дисперсий, что следует из (1.92), а также сокращением расстояния междуспектральными линиями, поскольку
/>
Придостаточно большом, но конечном Т можно записать выражение для средней плотностираспределения дисперсии по частоте:
S/>(wk) =Dk / (Δω) = 2DkT / /> (k = 0,±l, ±2,.)(1.98)
где S/>(wk) — средняя плотность дисперсии на участке,прилегающем к частоте ωk.
Теперь можнопреобразовать формулы (1.94) и (1.98) к виду
/>
Переходя кпределу при Т/>, получаем
/>
где
/>
Так каквеличина S/>(ωk)Δω являлась не только дисперсией Dk коэффициентаразложения корреляционной функции Ru(t), но и дисперсией D [Ck] коэффициентаразложения случайного процесса U(t), то величина Suu(w) dw, полученная врезультате предельного перехода при Т/>, представляет собой дисперсию,приходящуюся на спектральные составляющие стационарного случайного процесса,занимающие бесконечно малый интервал частот (ω, ω + dw).Функцию Suu(w), характеризующуюраспределение дисперсии случайного процесса по частотам, называют спектральнойплотностью стационарного случайного процесса U(t).
Выражениедля интегрального канонического разложения корреляционной функции Ru(t) найдем, положивв формуле (1.101) τ = t1 — t2:
/>
Обозначив G/>(w) = Сk / (/>w) и повторив процедуру предельного переходапри T/>для соотношения (1.95),получим каноническое разложение стационарной случайной функции U(t):
/>
гдедисперсией случайной функции G(w) dw является функция Suu(w) dw.
Посколькупонятие спектральной плотности стационарного случайного процесса играет большуюроль при исследовании преобразования сигналов линейными системами, уточним еесвойства и физический смысл.
Основныесвойства спектральной плотности. Отметим, что в формулах (1.101) и (1.102) Suu(w) определена как для положительных, так идля отрицательных частот. Перейдем к одностороннему спектру, ограничиваясьтолько положительными частотами. Воспользовавшись формулой Эйлера, представимсоотношение (1.102) состоящим из двух слагаемых:
/>
В силу четностифункции Ru(t) второеслагаемое равно нулю, а первое можно преобразовать к виду
/>
Из (1.105) следует,что Suu(w) являетсядействительной и четной функцией, т.е.
/>
Этопозволяет ограничиться положительными частотами и в (1.101):
/>
Соотношения (1101) и (1.102), а также (1.105) и (1.107) являются парами интегральногопреобразования Фурье, причем (1.105) и (1.107) для случая четной функции. Поэтомукорреляционная функция и спектральная плотность подчинены закономерности: чемпротяженнее кривая Suu(ω), темуже корреляционная функция Ru(t) (тем меньше время корреляции), и наоборот.
Площадь, ограниченнаянепрерывной кривой Suu(w) наспектральной диаграмме, очевидно, должна равняться дисперсии Du случайногопроцесса U(t). Действительно, положив в формуле (1.107) τ =0, получим
/>
Подразумеваяпод случайным процессом U(t) напряжение, Du можно рассматривать как среднююмощность, выделяемую этим напряжением на резисторе с сопротивлением в 1 Ом:
/>
Следовательно,величина
/>
представляетсобой долю средней мощности, выделяемой составляющими спектра, относящимися кинтервалу частот (ω, ω + dw).
В связи сэтим спектральную плотность Suu(w) называютеще спектральной плотностью мощности, а также энергетическим спектромстационарного случайного процесса, поскольку Suu(w) имеет размерность энергии.
Спектральнаяплотность мощности случайного процесса является средней характеристикоймножества реализаций. Ее можно получить и путем усреднения спектральноймощности реализации Ρk(ω) (1.62) по множествуреализаций.
Рассмотрим сэтой целью одну реализацию u/>(t) стационарного случайного процессаU(t) сначала на ограниченном интервале времени — T
/>
В соответствиис (1.63) спектральная плотность мощности этой реализации
/>
Найдемсреднее значение Ρ/>(ω)по множеству реализации k. Имеем
/>
или
/>
Так как мы предполагаем,что случайный процесс U(t) стационарный, то
/>
где t1 — t2 = τ.
При выполненииусловия (1.114) для выражения (1.113) существует предел при T/>:
/>
что итребовалось показать.
Пример 1.7 Уцентрированного стационарного случайного процесса спектральная плотностьпостоянна. Рассмотреть особенности такого процесса.
Пусть спектральнаяплотность Suu(ω) ограничена определеннойполосой частот (рис.1.16, а):
/>
В соответствиис (1.107) найдем автокорреляционную функцию процесса U(t):
/>
Вид функции Ru(t) приведен на рис.1.16,6.Значение ее при τ = 0 равно дисперсии, аследовательно, средней мощности рассматриваемого процесса:
/>
Будем теперьрасширять полосу частот, занимаемую энергетическим спектром (рис.1.17, а). Интервалвремени, на котором наблюдается существенная корреляционная связь значенийпроцесса, при этом уменьшается, а дисперсия Du возрастает.
При w0/>дисперсия становитсябезграничной, а корреляционная функция принимает вид дельта-функции (рис.1.17,6).
/>

Идеализированныйслучайный процесс, энергетический спектр которого безграничен и равномерен,известен как «белый шум». Такое название возникло по аналогии с белымсветом, имеющим равномерный и неограниченный спектр интенсивности. Основнаяособенность процесса в том, что его значения в любые два сколь угодно близкиемоменты времени некоррелированы. Создать белый шум принципиально невозможно,так как реальные источники сигналов всегда имеют ограниченную мощность. Тем неменее, понятие «белый шум» нашло широкое применение в информационнойтехнике. Такая модель может быть принята, например, для сигналов (шумов),имеющих равномерный энергетический спектр в пределах полосы пропускания входногоблока системы, в которой они рассматриваются.
Иногдаговорят о «реальном белом шуме», подразумевая стационарный случайныйпроцесс с равномерным энергетическим спектром в пределах конечной, нодостаточно широкой полосы частот.
Пример 1.8 Определитьспектральную плотность мощности случайного процесса с линейно убывающейнормированной функцией автокорреляции (рис.1.18).
/>
Аналитическоевыражение нормированной корреляционной функции запишем в виде
/>
Воспользовавшисьсоотношением (1.105) при р„ (0) = 1, получим
/>
Раскрывая поправилу Лопиталя неопределенность выражения (1.119) при ω =0, найдем
/>
Несложныйдополнительный анализ дает возможность определить форму кривой Suu(w) (рис.1. 19).
Контрольныевопросы
1. В чемотносительность сигнала и помехи?
2. Охарактеризуйтеосновной метод исследования сигналов.
3. Чтопонимают под детерминированным сигналом?
4. Назовитеразличные формы представления моделей сигналов.
5. В чемсущность спектрального представления сигналов?
6. Запишите условияортогональности и ортонормированности системы функций.
7. Назовитепреимущества частотного представления сигналов.
8. Дайтеопределение спектру амплитуд и спектру фаз.
9. В чем различиеспектров периодического и непериодического сигналов?
10. Дайте определениепрактической ширины спектра периодического и непериодического сигналов.
11. Как связанымежду собой длительность сигнала и ширина его спектра?
12. Каковы причиныиспользования случайного процесса в качестве модели сигнала?
13. Назовитеразновидности случайных функций времени.
14. В чем трудноститочного математического описания случайного процесса?
15. Как определитьматематическое описание, дисперсию и корреляционную функцию случайного процесса?
16. Пояснитефизический смысл корреляционной функции, перечислите ее свойства.
17. Какойслучайный процесс называется центрированным?
18. Дайте определениестационарности случайного процесса в узком и широком смысле.
19. Сформулируйтеусловие эргодичности стационарного случайного процесса.
20. Каков физическийсмысл дисперсии стационарного случайного процесса, имеющего размерность токаили напряжения
21. Что подразумеваетсяпод каноническим разложением случайного процесса?
22. Какопределяются дисперсии случайных коэффициентов разложения по корреляционнойфункции процесса?
23. Запишитесоотношения, связывающие корреляционную функцию стационарного случайного процессас его спектральной плотностью.
24. Сформулируйтеосновные свойства спектральной плотности стационарного случайного процесса.
25. Какойслучайный процесс называют белым шумом и каковы его основные характеристики?


Не сдавайте скачаную работу преподавателю!
Данный реферат Вы можете использовать для подготовки курсовых проектов.

Поделись с друзьями, за репост + 100 мильонов к студенческой карме :

Пишем реферат самостоятельно:
! Как писать рефераты
Практические рекомендации по написанию студенческих рефератов.
! План реферата Краткий список разделов, отражающий структура и порядок работы над будующим рефератом.
! Введение реферата Вводная часть работы, в которой отражается цель и обозначается список задач.
! Заключение реферата В заключении подводятся итоги, описывается была ли достигнута поставленная цель, каковы результаты.
! Оформление рефератов Методические рекомендации по грамотному оформлению работы по ГОСТ.

Читайте также:
Виды рефератов Какими бывают рефераты по своему назначению и структуре.