Обработка информации и принятие решения в системах ближней локации


головна сторінка Реферати Курсові роботи текст файли додати матеріалПродать работу

пошук рефератів

Курсова на тему Обработка информации и принятие решения в системах ближней локации

завантажити
Знайти інші подібні реферати.
подібні якісні роботи

Розмір: 0.55 мб.
Мова: російська
Розмістив (ла): shatun
24.12.2010
1 2 3 4 5 6 7 8 9 ... 13    

Курсовая работа

по дисциплине: «Теория обработки информации в системах ближней локации»

на тему: «Обработка информации и принятие решения в системах ближней локации»

Содержание

Задание на курсовое проектирование

Введение

Исходные данные

1. Исследование вероятностной структуры сигналов

    1. Построение гистограмм выборочных плотностей вероятности амплитуд сигналов, как случайных величин

    2. Изучение законов распределения случайных величин

    3. Оценка параметров распределения случайных величин для четырех законов

    4. Построение на одном графике теоретического и практического распределения для формулировки гипотезы

    5. Проверка гипотезы по критерию Колмогорова – Смирнова

    6. Проверка гипотезы по критерию согласия Пирсона

    7. Построение корреляционной функции для фрагмента сигнала длительностью 2000 отсчетов

2. Формирование обучающих и контрольных множеств данных

2.1 Признаки по оценке плотности распределения вероятности в пяти интервалах положительной области

3. Исследование признаков

3.1 Оценка параметров распределения признаков. Определение информативного признака с максимальным расстоянием, построение функций плотности распределения вероятностей и вычисление порога принятия решения, формулирование решающего правила

4. Обучение двухслойной нейронной сети

4.1 Общие сведения о нейронных сетях

4.2 Обучение нейронной сети

Заключение

Список использованных источников

Исходные данные

Задача обнаружения гусеничной техники, проезжающей на расстоянии 200 м от сейсмоприемника. Сигналы fon и tr_t200 предназначены для обучения и контроля нейронной сети. Сигнал test_t50 – для тестирования работы нейронной сети. Признаки: распределение мощности в десяти равномерных интервалах (по 25 гармоник).

Рисунок 1 – Исходный фоновый сигнал

Рисунок 2 – Исходный сигнал гусеничной техники

Введение

За последние 10…20 лет существенно расширилась область использования технических средств охранной сигнализации (ТСОС): они используются для охраны, как военных объектов, атомных станций, государственной границы, так и дачных и фермерских хозяйств. Возрастают и требования к ТСОС по энергопотреблению и габаритным размерам, быстродействию и эффективности, кругу решаемых задач.

Ранее в основном решалась задача обнаружения нарушителя с вероятностью 0.9, в настоящее время требуется повысить вероятность до 0.95 и более при снижении времени наработки до ложной тревоги с 1000 до 2000 часов (вероятности ложной тревоги). Все чаще ставятся задачи распознавания нарушителя по классам человек-группа людей, колесная-гусеничная техника с вероятностью 0.8…0.9 и определения места и направления пересечения охраняемого рубежа или зоны.

Для решения поставленных задач недостаточно простых схемотехнических решений и алгоритмов, основанных на амплитудно-временной селекции сигналов.

Анализ отечественных и зарубежных ТСОС показал, что основным направлением их развития является разработка более сложных алгоритмов обработки сигналов, основанных на исследовании «тонкой» внутренней структуры сигналов, генерируемых нарушителем, и выявлении наиболее отличительных характеристик (признаков).

1. Исследование вероятностной структуры сигналов

1.1 Построение гистограммы

Различные законы распределения различаются видом графиков F(x) и f(x). Из математического анализа известно, что при интегрировании функции сглаживаются, а при дифференцировании, их особенности проявляются сильнее. Поэтому функция плотности распределения вероятности f(x) содержит больше информации, чем функция распределения F(x).

По определению плотность распределения f(x) – это предел отношения вероятности попадания в малый интервал к ширине этого интервала, когда ширина стремится к нулю. Для выборки выборочная вероятность попадания в некоторый интервал – это отношение числа попаданий в интервал nj к общему числу попаданий n. Если ее разделить на ширину интервала h, то при малых h мы и получим выборочную плотность распределения:

(1)

Здесь мы не сможем использовать xj поодиночке, их придется группировать по участкам. Поэтому вначале весь интервал изменения данных нужно разбить на участки одинаковой длины. Сколько участков взять? Есть несколько подходов к определению числа участков разбиения k. Один из них – это использование формулы Стэрджесса:

, (2)

где n – объем выборки, а – операция округления до ближайшего целого. Другой подход состоит в следующем. С одной стороны, число участков разбиения должно быть как можно больше, с другой стороны, в каждый из этих участков должно попадать как можно больше значений xi. Компромисс между этими требованиями приводит к тому, что обычно выбирают число участков k для построения гистограммы как ближайшее целое к корню квадратному из n:

. (3)

После разбиения на k участков подсчитываем число попаданий в каждый из них nj.

Из (1) следует, что гистограмма с точностью до множителя nh совпадает с графиком выборочной плотности распределения . Разделив ординаты гистограммы на nh, мы получим график .

Для построения гистограммы в MATLAB имеется функция hist. Она автоматически разбивает интервал изменения выборки на нужное количество участков, подсчитывает nj и строит график.

Продолжим выполнение задания «Обработка массива данных». В нижеприведенной области ввода первая строка – это определение числа участков k. Сейчас здесь стоит . Если вы хотите использовать формулу Стэрджесса, измените эту строку. Определим ширину каждого интервала h (идентификатор d в программе). Построим гистограмму распределения (1).

Практическая часть.

clear all% очистили рабочую область

x=tr_t200; % вводим ИД

x=sort (x(:));% переформатировали столбец и рассортировали

n=length(x);% длина массива t_tr200

xmin=x(1);% находим минимальное значение

xmax=x(n);% находим максимальное значение

Mx=mean(x);% математическое ожидание

f=n-1;% число степеней свободы

Dx=var(x);% дисперсия

Sx=std(x);% среднеквадратичное отклонение

    продолжение
1 2 3 4 5 6 7 8 9 ... 13    

Добавить курсову роботу в свой блог или сайт
Удобная ссылка:

Завантажити курсову роботу безкоштовно
подобрать список литературы


Обработка информации и принятие решения в системах ближней локации


Постійний url цієї сторінки:
Курсова Обработка информации и принятие решения в системах ближней локации


Разместите кнопку на своём сайте:
Рефераты
вгору сторінки


© coolreferat.com | написать письмо | правообладателям | читателям
При копировании материалов укажите ссылку.