|
|
|
![]() |
![]() |
![]() |
![]() |
![]() |
Билет №1.
Понятие информации. Виды информации, ее свойства, классификация.
Информационные процессы. Передача информации. Информационная система,
управление, обратная связь. Билет №2. Понятие о кодировании информации. Позиционные и непозиционные системы счисления. Двоичная арифметика. Билет №3. Подходы к изменению информации. Преимущества и недостатки вероятного и алфавитного подходов к измерению информации. Единицы измерения информации. Скорость передачи информации. Пропуская способность канала связи. Билет №4. Понятие алгоритма: свойство алгоритмов, исполнителя алгоритмов. Автоматическое исполнение алгоритма. Способы описания алгоритмов. Основные алгоритмические структуры и их реализация на языке программирования. Оценка эффективности алгоритмов. Билет №5. Язык программирования. Типы данных. Реализация основных алгоритмических структур на языке программирования. Основные этапы разработки программ. Билет №6. Технология программирования. Структурное и объектно-ориентированное программирование. Процедуры и функции. Локальные и глобальные переменные. Билет №7. Типы данных. Структуры данных. Обработка массивов. Итеративные и рекурсивные алгоритмы обработки массивов. Многомерные массивы. Билет №8. Основные понятия и операции формальной логики. Законы логики. Логические переменные. Логические выражения и их преобразования. Построение таблиц истинности логических выражений. Билет №9. Логические элементы и схемы. Типовые логические устройства компьютера: полусумматор, сумматор, триггеры, регистры. Описание архитектуры компьютера с опорой на составляющие ее логические устройства. Билет №10. Моделирование как метод познания. Информационные модели. Основные этапы компьютерного моделирования. Билет №11. Информационные основы управления. Общие принципы управления. Роль обратной связи в управлении. Замкнутые и разомкнутые системы управления. Самоуправляемые системы, их особенности. Понятие о сложных системах управления, принцип иерархичности систем. Самоорганизующиеся системы. Билет №12. Архитектура современных компьютеров. Основные устройства компьютера, их функции и взаимосвязь. Магистрально-модульный принцип построения компьютера. Безопасность, гигиена, эргономика, ресурсосбережение, технологические требования при эксплуатации компьютерного рабочего места. Комплектация компьютерного рабочего места в соответствии с целями его использования. Билет №13. Компьютерные сети. Аппаратные средства компьютерных сетей. Топология локальных сетей. Характеристики каналов (линий) связи. Профессии, связанные с обеспечением эксплуатации сетей. Билет №14. Основные этапы становления информационного общества. Информационные ресурсы государства, их структура. Образовательные информационные ресурсы. Информационная этика и право, информационная безопасность. Правовые нормы, относящиеся к информации, правонарушения в информационной сфере, меры их предотвращения. Билет №15. Классификация и характеристика программного обеспечения компьютера. Взаимосвязь аппаратного и программного обеспечения компьютера. Многообразие операционных систем. Понятие о системном администрировании. Программные и аппаратные средства для решения различных профессиональных задач. Билет №16. Компьютерные вирусы и антивирусные программы. Специализированное программное обеспечение для защиты программ и данных. Технологии и средства защиты информации в глобальной локальной компьютерных сетях от разрушения, несанкционированного доступа. Билет №17. Понятие файла. Файлы прямого и последовательного доступа. Файловый принцип организации данных. Операции с файлами. Типы файлов. Аппаратное обеспечение хранения данных и функционирования файловой системы. Билет №18. Виды профессиональной информационной деятельности человека и используемые инструменты (технические средства и информационные ресурсы). Профессии, связанные с построением математических и компьютерных моделей, программированием, обеспечением информационной деятельности людей и организаций. Билет №19. Кодирование графической информации. Растровая и векторная графика. Средства и технологии работы с графикой. Создание и редактирование графических информационных объектов средствами графических редакторов, систем презентационной и анимационной графики. Форматы графических файлов. Способы сжатия. Билет №20. Кодирование звуковой информации. Форматы звуковых файлов. Ввод и обработка звуковых файлов. Использование инструментов специального программного обеспечения и цифрового оборудования для создания и преобразования звуковых файлов.
|
Билет №3 Подходы к изменению информации. Преимущества и недостатки вероятного и алфавитного подходов к измерению информации. Единицы измерения информации. Скорость передачи информации. Пропуская способность канала связи. Информация является важнейшим понятием и основным объектом изучения в информатике (см. билет №1). Неудивительно поэтому, что проблема измерения информации имеет фундаментальное значение. На бытовом уровне информация является синонимом слов сведения, здания, данные, новость, известие, сообщение и аналогичным им. При этом неявно подразумевается, что тот, кто получает информацию, выделяет из нее некоторый смысл (содержание). Смысловая составляющая информации во многом индивидуальна. Большинство россиян не способны извлечь никакой информации из текста на японском языке. Многие взрослые, взяв учебник для начальных классов, также не сочтут его заслуживающей своего внимания информацией, хотя, в отличие от предыдущего случая, понимают (слишком хорошо!), что там написано. Химика редко интересуют об археологических открытиях, а большая часть литераторов активно игнорируют любые сведенья из области математики. Наконец, многие образованные люди не верят в статьи, опубликованные в бульварной прессе, заранее считая их недостоверными. Таким образом, информативность любых сведений и сообщений существенно зависит от воспринимающего их человека его предыдущих знаний, опыта, интересов, отношений к источнику информации и множество других факторов личного характера, т.е. по своей сути является субъективной. Дополнительное пояснение. Во всех наиболее распространенных школьных учебниках подобными описаниями и несколькими несвязанными примерами неинформативных сообщений дело и ограничивается. Но на самом деле вопрос о соотношении между информативностью и предыдущими знаниями человека имеет самостоятельное значение. Например, в недавно вышедших учебниках приведен следующий весьма наглядный и любопытный качественный график зависимости воспринимаемой пользователем информации I от предварительно известных ему сведений S (для обозначения совокупности сведений, которыми располагает пользователь или любая другая система, приносят специальный научный термин – тезаурус).
Из графика отчетливо видно, что воспринимаемая из фиксированного сообщения информация зависит от познаний пользователя неоднозначно. При малых S (тезаурус мал, пользователь неквалифицирован) воспринимаемая информация близка к нулю – человек ее просто не понимает. По мере роста S ситуация улучшается, и количество воспринятой из данного сообщения информации растет (невежественный пользователь быстро прогрессирует). Но лишь до определенного предела, а затем величина I начинает постепенно уменьшаться. Здесь вступает в действие другой фактор: при больших S (большой объем знаний , мы имеем дело с образованным пользователем) многие сообщения не могут добавить к тезаурусу ничего нового и их информативность вновь устремляется к нулю. Выражаясь житейским языком, когда человек много знает, его ничем не удивишь. Таким образом, график количества воспринимаемой информации имеет максимум (на рисунке он обозначен Sопт), Соответствующий вполне определенному соотношению между содержащейся в сообщении информацией и уже имеющимися у субъекта знаниями. Если задуматься над сутью рассмотренного графика, то можно получить целый ряд практически интересных выводов. Например, что передаваемая информация должна определенным образом соотноситься с уже имеющимися в ее приемники сведениями, иначе данные могут оказаться бесполезными и только напрасно будут загружать каналы связи и узлы обработки. Таким образом, субъективный характер восприятия информации делает однозначное измерение количества информации весьма затруднительным. Заметим, что современным компьютерам смысл обрабатываемых данных вообще принципиально недоступен, что делает еще более призрачной надежду на решение проблемы автоматического измерения «количества» содержания, которое в этих данных применяется на практике. Как же все-таки измерить информации? Общепринятым на данный момент решением проблемы является измерение объема информации при полном игнорировании ее смысла. Такой подход, несмотря на кажущуюся бессмысленность, оказывается необычайно полезным и широко применяется на практике. Действительно, в целом ряде важных практических задач смысл информации и даже ее вид (числа, текст, видео) по каналам связи, при распределении объемов ОЗУ для хранения различных типов данных, при архивации и многих других компьютерных примечаниях содержание передаваемой и обрабатываемой информации особого значения не имеет. Нечто похожее наблюдается и в «некомпьютерных» областях. Так, книги хранятся и ищутся не по содержанию, а по другим, часто весьма формальным признакам; в библиотеке нашего университета , в частности, книги расставлены на стеллажах в том числе с учетом размера обложки, который явно слабо связан с содержанием книги. Аналогично почтальону должно быть все равно, что именно находится внутри доставляемого им конверта, а диктор телевидения не может пропускать отдельные новости или их фрагменты в соответствии со своими личными убеждениями. Примечание. Подобно тому, как в физике при полном игнорировании трения можно установить фундаментальные законы движения, можно надеяться, что изучение «информации без смысла» позволит понять наиболее важные закономерности протекания информационных процессов. На этих и многочисленных подобных примерах мы видим, что информация перестает зависеть от человека при абстрагировании от ее смысла. Следовательно, появляется возможность объективного измерения количества информации. При этом используется два подхода: вероятностный или алфавитный. Вероятностный подход к измерению информации Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний). Математически это высказывание эквивалентно простой формуле I = H1 – H2 Где I- это количество информации, а H1 и H2 - начальная и конечная неопределенность соответственно (очевидно, что H1 ≥ H2). Величину H, которая описывает степень неопределенности, в литературе принято называть энтропией. Важным частым случаем является ситуация, когда некоторое событие с несколькими возможными исходами уже прошло, а значит, неопределенность его результата исчезла. Тогда H2 = 0 и формула для информации упрощается: I = H Таким образом, энтропия опыта равна той информации, которую мы получаем в результате его осуществления. И наоборот: информация, получаемая из опыта, может быть вычислена через его энтропию. Очевидно, что единицы измерения информации и энтропии совпадают. Вычисления энтропии при вероятном подходе базируется на рассмотрении данных о результате некоторого случайного события, т.е. события, которое может иметь несколько исходов. Случайность события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности. Пусть, например, абсолютно незнакомый нам ученик сдает нам экзамен, результатом которого может служить получение оценок 2, 3, 4, или 5. Поскольку мы ничего не знаем о данном ученике, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Например, если нам известно как он учится, то уверенность в некоторых исходах будет больше, чем в других: так, отличник скорее всего сдаст экзамен на пятерку, получение двойки для него – это нечто почти невероятное. Наиболее просто определить количество информации в случае, когда все исходы события могут реализовать с равной долей вероятности. В этом случае для вычисления информации используется формула Хартли. В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона, которую обычно выносят за рамки школьного курса информатики. Очевидно, что Хартли является общей формулы Шеннона. Формула Хартли была предложена В1928 году американским инженером Р.Хартли. Она связывает количество равновероятных состояний N с количеством информации I в сообщении том, что наиболее простая форма для данной формулы записывается следующим образом: 2I = N Причем обычно значение N известно, а I приходится подбирать, что не совсем удобно. Поэтому те, кто знает математику получше, предпочитают преобразовать данную формулу так, чтобы сразу выразить искомую величину I в явном виде: I = log2 N Важный частный случай получается из приведенной формуле при N= 2, когда результатом вычисления является единичное значение. Единица информации носит название бит (по англ. BInary digiT – двоичная цифра); таким образом, 1 бит – это информация в сообщении о реализации одного из них. Пример 1. Из колоды выбрали 16 карт (все «картинки» и тузы) и положили на стол рисунком вниз. Верхнюю карту перевернули. Сколько информации будет заключено в сообщении о том, какая именно карта оказалась сверху? Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. В таких условиях применена формула Хартли. Событие, заключающееся в открытии верхней карты, для нашего случая могло иметь 16 возможных исходов. Следовательно, информация о реализации одного из них равняется I = log2 16 I= 4 бита Примечание. Если вы не любите логарифмы, можно записать формулу Хартли в виде 2I = 16 и получить ответ, подбирая такое I , которое ей удовлетворяет. Пример 2. Решите предыдущую задачу для случая, когда сообщение об исходе случайного события было следующим: «верхняя перевернутая карта оказалась черной дамой». Отличие данной задачи от предыдущей заключается в том, что в результате сообщения об исходе случайного события не наступает полной определенности: выбранная карта может иметь одну из двух черных мастей. В этом случае, прежде чем воспользоваться формулой Хартли, необходимо вспомнить, что информация есть уменьшение неопределенности знаний: I = H1 – H2 До переворота карты неопределенность (энтропия) составляла H1 =log2 N1 после него - H2 = log2 N2 (причем для нашей задачи N1 = 16, а N2 = 2). В итоге информация вычисляется следующим образом: I = H1-H2 = log2 N1- log2 N2 = log2 N1 ∕N2 = log2 16∕ 2 = 3 бит Заметим, что в случае, когда нам называют карту точно (см. предыдущий пример), неопределенность результата исчезает, N2 = 1, и мы получаем «традиционную» формулу Хартли. И еще одно полезное наблюдение. Полная информация о результате рассматриваемого опыта составляет 4 бита (см. пример 1). В данном же случае мы получили 3 бита информации, а оставшийся четвертый описывает сохранившуюся неопределенность выбора между двумя дамами черной масти. Алфавитный (объемный) подход к изменению информации Помимо описанного выше вероятного подхода к изменению информации, состоящего в подсчете необходимости исходов того или иного события, существует и другой. Его часто называют объемным, и он заключается в определении количество информации в каждом из знаков, в сообщении. Пусть сообщение кодируется с помощью некоторых наборов знаков. Заметим, что если для данного набора установлен порядок следования знаков, то он называется алфавитом. Наиболее сложной частью работы при объемном изменении информации является определение количества информации, содержащейся в каждом отдельном символе: остальная часть процедуры весьма проста. Для определения информации в одном символе алфавита можно также использовать вероятные методы, поскольку появление конкретного знака в конкретном месте текста есть явление случайное. Самый простой метод подсчета заключается в предыдущем. Пусть алфавит, с помощью которого записываются все сообщения, состоит из М символов. Для простоты предложим, что все они появляются в тексте с одинаковой вероятностью (конечно, это грубая модель, но зато очень простая): I = log2 M Поскольку все символы «равноправны», естественно, что объем информации в каждом из них одинаков. Следовательно, остается полученное значение умножить на количество символов в сообщении, и мы получим общий объем информации в нем. Примечание. Стоит знать, что простой способ кодирования, когда коды всех символов имеют одинаковую длину, не является единственным. Часто при передаче или архивации информации по соображениям экономичности тем символам, которые встречаются чаще, ставится в соответствии более короткие коды и наоборот. Можно показать, что при любом варианте кодирования Iвероятная ≤ Iобъемная (чем экономичнее способ кодировании, тем меньше разница между этими величинами – см. пример 4,приведенный ниже) Пример 3. Определить информацию, которую несет в себе 1-й символ в кодировках ASCII и Unicode. В алфавите ASCII предусмотрено 256 различных символов, т.е. М = 256, а I = Log2 256 = 8 бит = 1байт В современной кодировке Unicode заложено гораздо большее количество символов. В ней определенно 256 алфавитных страниц по 256 символов в каждой. Предполагая для простоты, что все символы используются, получим, что I = log2 (256 * 256) = 8 + 8 + 16 бит +2 байта Пример 4. Текст, сохраняемый в коде ASCII ,состоит исключительно из аритмических примеров, которые записаны с помощью 10 цифр от 0 до 9,4 знаков арифметических операций, знака равенства и некоторого служебного кода, разделяющего примеры между собой. Сравните количество информации, которое несет один символ такого текста, применяя вероятный и алфавитный подходы. Легко подсчитать, что всего рассматриваемый в задаче текст состоит из N = 16 различных символов. Следовательно, по формуле Хартли Iвероятности = log2 16 = 4 бита В то время, согласно вычислениям примера 3, для символа ASCII Iалфавитная = 8 бит Двукратный избыток при кодировании символов связан с тем, что далеко не все коды ASCII оказываются в нашем тексте востребованными. В то же время несложно построить вариант специализированной 4-битной кодировки для конкретной задачи, для которого Iвероятная и Iалфавитная окажутся равными. В порядке подведения итогов сравним вероятный и алфавитный подходы, как того требует вопрос билета. Первый подход позволяет вычислить предельное (минимально возможное) теоретическое значение количества информации, которое несет сообщение о данном исходе события. Второй – каково количество информации на практике с учетом конкретной выбранной кодировки. Очевидно, что первая величина есть однозначная характеристика рассматриваемого события, тогда как вторая зависит еще и от способа кодирования: в «идеальном» случае обе величины совпадают, однако на практике используемый метод кодирования может иметь ту или иную степень избыточности. С рассмотренной точки зрения вероятный подход имеет преимущество. Но, с другой стороны, алфавитный способ заметно проще с некоторых позиций (например, для подсчета требуемого количества памяти) полезнее. Примечание. В учебниках информатики обычно ограничиваются описанием обоих подходов и не производится их сравнение. Вопрос о единицах измерения информации уже возникал при обсуждении вероятного и алфавитного подходов. В самом деле, трудно изложить способ измерения величины, не упоминая при этом о единицах ее измерения. Поэтому мы уже сформулировали выше, что с теоретической точки зрения 1 бит – это информация, которая сокращает неопределенность наших знаний вдвое (ответ на вопрос типа «да»∕ «нет», наличие или отсутствие какого-либо свойства, четность числа и т.д.). С точки зрения практической реализации компьютерных устройств для обработки информации 1 бит – это отдельный двоичный разряд любого из таких устройств. Иначе говоря, в вычислительной технике бит служит конструктивной базой для построения всех цифровых двоичных устройств: регистров, сумматоров и т.п. Отсюда очевидно, что в теории информации количество бит может быть любым, в том числе дробным, в то время как в реальных устройствах оно обязательно целое. Бит, будучи минимально возможной порцией информации в компьютере, довольно маленькая единица измерения. Поэтому на практике чаще всего используется другая единица, которая называется 1 байт = 8 бит. С точки зрения устройства компьютера байт замечателен тем, что является минимальной адресуемой информацией в компьютере, иначе говоря, считать из памяти часть байта невозможно. В современных компьютерах все устройства памяти имеют байтовую структуру, а внешние устройства также обмениваются информацией байтами или кратными ему пропорциями. Как следствие все типы данных ( числа, символы и д.р.) представляются в компьютере величинами, кратными байту. Примечание. Даже логические переменные, для каждой из которых, казалось бы, достаточно 1 бита, обычно занимают в оперативной памяти полный байт, (или иногда ради единообразия даже несколько байт, например, LongBool в Паскале). С целью получения шкалы для измерения объемов информации в широких пределах от байта с помощью стандартных приставок образуется целая система более крупных производных единиц: 1 килобайт = 1024 байта 1 мегабайт = 1024 килобайта 1 гигабайт = 1024мегабайта И т.д. В отличие от общепринятой системы производных единиц (широко используемой, например, в физике) при пересчете применяется множитель 1024, а не 1000. Причина заключается в двоичном характере представления информации в компьютере: 1024 = 210, и, следовательно, лучше подходит к изменению двоичной информации. Научившись измерять количество информации, можно ставить вопрос, как быстро она передается. Величину, которая равна количеству информации, передаваемому за единицу времени, принято называть скоростью передачи информации. Очевидно, что если за время t по каналу связи передано количество информации I, то скорость передачи вычисляется как отношение I ∕ t. Примечание. При практической работе с величиной скорости передачи информации следует очень внимательно относиться к тому, что именно понимается под передаваемой информации I. В частности, в процессе передачи к собственно пользовательской информации может добавляться значительное количество служебных вспомогательных данных: например, согласно сетевому протоколу UDP (User Datagram Protocol), который является некоторой разновидностью известного протокола ТСР (Transmission Control Protocol), из 146 байт стандартного Ethernet-кадра 46 являются служебными. Кроме того, непосредственно перед передачей данные могут сжиматься или шифроваться, что также повлияет на время их передачи. Скорость передачи данных нельзя сделать сколь угодно большой; ее предельная максимальная величина имеет специальное название – пропускная способность канала связи. Данная характеристика определяется устройством канала и, что не так очевидно, способом передачи сигналов по нему. Иными словами, для разных способов представления данных одна и та же линия связи может иметь разную пропускную способность. К.Шеннон в созданной им теории информации доказал, что достигнуть ее передачи пропускной способности линии можно всегда и путем к этому является повышение эффективности кодирования. Более того, даже при наличии в канале шумов любого уровня всегда можно закодировать сообщение таким образом, чтобы не происходило потери информации. Обе величины – скорость передачи и пропускная способность – по определению изменяются в одних и тех же единицах, являющихся отношением единиц информации и времени: бит/с, байт/с, Кб/с и т.д. Дополнительное пояснение. Кроме того, существует еще одна родственная единица измерения параметров передачи – бод. Количество бод есть количество изменений информационного параметра в секунду. Скорость передачи в битах в секунду в общем случае не совпадает с количеством бод. Приведем очень наглядный пример, когда скорость в бит/с втрое выше, чем число бод. «Если информационными параметрами является фаза и амплитуда синусоиды, причем различают 4 состояния фазы (0, 90, 180 и 270) и два значения амплитуды, то информационный сигнал имеет восемь различных состояний . В этом случае модем, работающий со скоростью 2400 бод (с тактовой частотой 2400 Гц), передает информацию со скоростью 7200 бит/с, так как при одном изменении сигнала передается три бита информации». Возможно, кстати, и обратное соотношение между величинами в бит/с и бод; в частном случае они могут совпадать. В качестве примера типичных значений скоростей передачи данных в современных компьютерах ниже приводятся табл. 1 и 2, составленные на основе из известной книги. Таблица 1. Характеристики устройств внешней памяти
Таблица 2. Характеристики шин расширения
|
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |