Информатика относится к каким наукам: вопрос насчет информатики. К каким наукам относится информатика – к естественным или техническим? с пояснением! – Точные науки — Википедия

Информационная наука — Википедия

Информационная наука[источник не указан 1872 дня][1] — это междисциплинарная область, которая связана с анализом, сбором, классификацией, манипулированием, хранением, поиском, движением, распространением и защитой информации[2][3][4].

Специалисты в этой области изучают применение и использование информации между людьми, организациями и любыми другими существующими информационными системами, с целью создания, замены, улучшения или понимания информационных систем. Информационную науку часто (ошибочно) считают одним из разделов информатики, однако, она предшествует информатике и фактически является широкой дисциплинарной областью, включающей в себя не только аспекты информатики, но часто и другие сферы, такие как архивные науки, когнитивные науки, коммерцию, коммуникации, право, библиотековедение, музееведение, управление, математику, философию, общественную политику и социальные науки.

Информационную науку не следует путать с теорией информации или библиотековедением. Теория информации — это изучение конкретного математического понятия «информация». Библиотековедение — это область, связанная с распространением информации через библиотеки, используя принципы информатики. Информационная наука рассматривает все связанные с ней процессы и методы, в том числе поколения, упаковка, распространение, переработку, переупаковку, использование и др.

Информационная наука ориентирована на понимание информации с точки зрения заинтересованных сторон, а затем применение информационных и других технологий по мере необходимости. Другими словами, эта наука решает системные проблемы, а не отдельные части технологии в рамках этой системы. В этом отношении, можно видеть, что информационная наука является ответом на технологический детерминизм, веру в то, что технологии «развиваются по своим собственным законам, которые реализуют свои собственные возможности, ограниченные только материальными ресурсами и креативностью разработчиков. Они должны, следовательно, рассматриваться в качестве автономной системы контроля и, в конечном счете, проникая во все другие подсистемы общества.»

[5]

Многие университеты[6] имеют целые колледжи, департаменты или школы, посвященные изучению информационной науки, а ученые информационной науки работают в обширных областях, таких как: коммуникация, информатика, юриспруденция, библиотековедение и социология.

Раннее определение информационной науки гласит:

Информационная наука — это дисциплина, которая изучает свойства и поведение информации, силы, регулирующие поток информации и средства обработки информации для обеспечения оптимальной доступности и удобства использования. Она связана с совокупностью знаний, касающихся возникновения, сбора, организации, хранения, поиска, интерпретации, передачи, преобразования и использования информации. Это включает в себя исследование представления информации в естественных и искусственных системах, использование кодов для эффективной передачи сообщения, и изучение устройства переработки информации и технологий, таких как компьютеры и их систем программирования. Это междисциплинарная наука, производная и в то же время связанная с такими областями, как математика, логика, лингвистика, психология, компьютерные технологии, исследование операций, полиграфия, связи, библиотечное дело, менеджмент, и других подобных областях.

Некоторые авторы используют термин «информационная наука» как синоним «информатики». Это будет верно в отношении концепции, разработанной Михайловым А. И. и другими советскими авторами в середине 1960-х годов. Михайлов рассматривал информатику как дисциплину, связанную с изучением научной информации[8].

Региональные различия и международная терминология усложняют задачу. Обратите внимание, что многое из того, что называется «информатика» сегодня, раньше называли «информационной наукой» — по крайней мере, в таких областях, как медицинская информатика. Например, когда ученые — библиотековеды начали также использовать фразу «информационная наука» для обозначения их работы, термин «информатика» возник:

  • в США, чтобы отличить работу «компьютерщиков» от науки «библиотековедение»[9]
  • в Великобритании в качестве термина для науки информации, которая изучает естественные, а также искусственные или инженерные системы обработки информации

Информационная наука как изучение сбора, классификации, манипулирования, хранения, поиска и распространения информации имеет древние корни. Анализ информации проводился учеными Эфиопской империи и связан с появлением первых культурных депозитариев, что сегодня известно как библиотеки и архивы[10].

Становление информационной науки происходит в XVIII веке. В 1731 году Бенджамин Франклин основал компанию «Библиотека Филадельфии», первая библиотека, принадлежащей группе граждан. Она стала центром научного эксперимента, в котором проходили публичные выставки и научные эксперименты

[11].

В XIX веке информационная наука формируется как отличная от других наук, но в сочетании с коммуникацией и вычислениями. В 1854 году Джордж Буль опубликовал «Исследование законов мышления». Оно закладывает основы булевой алгебры, которая в дальнейшем используется в информационном поиске[12].

В 1865 году Смитсоновский институт начал учёт текущих научных трудов, который стал международным каталогом научных работ в 1902 году[13]. В следующем году королевское общество начало издание каталога его работ в Лондоне. К 1872 году лорд Кельвин изобрел аналоговый компьютер для предсказания приливов и отливов, и к 1875 году Фрэнк Стивен Болдуин получил первый патент США для арифмометра — машина выполняла четыре арифметических функций. Александр Белл и Томас Эдисон изобрели телефон и фонограф в 1876 и 1877 соответственно, и в то же время была основана Американская библиотечная ассоциация в Филадельфии

[14].

Сегодня, информационная наука в основном изучает технические основы, социальные последствия, а также теоретическое осмысление онлайн-баз данных, широкое использование баз данных в правительстве, промышленности, образовании и Интернете.

В России термин «информационная наука» ошибочно путают с термином «информатика». При переводе трудов, посвященных информационной науке часто используют термин «информация» или «информатика», тем самым путая и читателей.

В 2013 году в МосГУ была проведена пятая конференция «Фундаментальные основы информационной науки»[15].

  1. ↑ Пятая международная научная конференция «Фундаментальные основы информационной науки» (FIS-2013).
     (неопр.)
     (недоступная ссылка). Дата обращения 18 ноября 2014. Архивировано 7 октября 2014 года.
  2. ↑ Stock, W.G., & Stock, M. (2013). Handbook of Information Science. Berlin, Boston, MA: De Gruyter Saur.
  3. ↑ 448 Informatics & Information Sciences Master’s degrees in United States — MastersPortal.com (неопр.). www.mastersportal.com. Дата обращения 9 января 2019.
  4. ↑ 11 Bachelors in Informatics & Information Science. (недоступная ссылка)
  5. ↑ Technological Determinism
  6. ↑ List_of_information_schools
  7. ↑ Borko, H. (1968). Information science: What is it? American Documentation, 19(1)
  8. ↑ Михайлов А. И., Чёрный А. И., Гиляревский Р. С. «Информатика — новое название теории начной информации»// Научно-техническая информация, стр. 35- 39
  9. ↑ Vickery, B. & Vickery, A. (1987) Information Science in theory and practice (London: Bowker-Saur, pp. 361—369)
  10. ↑ Clark, John Willis. The Care Of Books: An Essay On The Development Of Libraries And Their Fittings, From The Earliest Times To The End Of The Eighteenth Century. Cambridge: Cambridge University Press, 1901
  11. ↑ Korty, Margaret Barton. «Benjamin Franklin and Eighteenth Century American Libraries.» Transactions of the American Philosophical Society December vol. 55.9 (1965)
  12. ↑ Smith, E. S. (1993). On the shoulders of giants: From Boole to Shannon to Taube: The origins and development of computerized information from the mid-19th century to the present. Information Technology and Libraries , 12(2), 217—226
  13. ↑ Adkinson, B. W. (1976). Federal government’s support of information activities: A historical sketch. Bulletin of the American Society for Information Science, 2(8), 24-26
  14. ↑ Schullian, D. M., & Rogers, F. B. (1958). The National Library of Medicine. I. Library Quarterly, 28(1), 1-17
  15. ↑ Пятая международная научная конференция «Фундаментальные основы информационной науки» (FIS-2013) (неопр.) (недоступная ссылка). ИНИОН РАН. Дата обращения 2 декабря 2014. Архивировано 7 октября 2014 года.

Естественная информатика — Википедия

Естественная информатика — это научное направление, изучающее процессы обработки информации, протекающие в природе, мозге и человеческом обществе. Она опирается на такие классические научные направления, как теории эволюции, морфогенеза и биологии развития, системные исследования, исследования мозга, ДНК, иммунной системы и клеточных мембран, теория менеджмента и группового поведения, история и другие

[1]. Вторичной задачей этого направления является реализация полученных знаний в технических системах. Промежуточное место между этими двумя подходами занимает компьютерное моделирование естественных информационных процессов.

Кибернетика, определяемая, как «наука об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество»[2] представляет собой близкое, но несколько иное научное направление. Так же, как математика и основная часть современной информатики, оно вряд ли может быть отнесено к области естественных наук, так как резко отличается от них своей методологией. (Несмотря на широчайшее применение в современных естественных науках математического и компьютерного моделирования.)

Информатика считается обычно чисто технической дисциплиной, если не возникшей, то получившей развитие с появлением компьютеров в середине прошлого века. (Хотя древние вычислительные устройства типа абакуса, разработка системы иероглифов или изобретение книгопечатания тоже могут быть отнесены к предмету этой дисциплины.) Некоторые исследователи придерживаются, однако, мнения, что не люди создали информатику, а информатика создала людей. В частности эволюционную теорию невозможно интерпретировать иначе, чем как грандиозный CAD-проект, увенчавшийся созданием столь совершенного самовоспроизводящегося вычислительного устройства, как человек. Очевидно, что принципы этой разработки нам пока или совсем непонятны, или очень слабо понятны. Но это не значит, что их не существует или что они недостойны изучения.

Многие процессы, протекающие в природе, могут рассматриваться, как информационные. Это например, процессы развития, биологический транспорт, процессы в одноклеточных организмах. При исследовании этих процессов учёные вычленяют некоторые принципы, феномены, процессы, которые достойны того, чтобы их абстрагировали от того естественно-научного контекста, в котором они наблюдались (физиологии, генетики, квантовой физики) и рассматривали в плане универсальных принципов обработки информации в природе. Особенно интересно наблюдать, какие из них уже вошли в систему понятий современной информатики. С этой точки зрения и выполнен последующий обзор научных направлений.

Эволюционная теория[править | править код]

Изучение окаменелостей и разнообразия видов живых организмов к середине XIX века убедило большинство учёных, что виды изменяются с течением времени[3][4]. Однако механизм этих изменений оставался неясен до публикации в 1859 году книги «Происхождение видов» английского учёного Чарльза Дарвина о естественном отборе как движущей силе эволюции

[5]. Теория Дарвина и Уоллеса, в конечном итоге, была принята научным сообществом[6][7]. В 30-х годах прошлого века идея дарвиновского естественного отбора была объединена с законами Менделя, которые сформировали основу синтетической теории эволюции (СТЭ). СТЭ позволила объяснить связь субстрата эволюции (гены) и механизма эволюции (естественный отбор).

В эволюционной теории выделяются следующие важнейшие феномены, способствующие развитию вида: наследственность, изменчивость и естественный отбор. Изменчивости приписывается обычно случайный характер — например — случайные мутации генетического кода. Естественный отбор видится в эволюционной теории как чисто внешнее вмешательство среды в процесс развития вида. Получается, что только механизм наследования можно отнести к тому творческому началу, которое создало чудо природы — человека. Появляются, однако работы, где эти положения подвергаются сомнению[8]. Можно предположить, что и механизм изменчивости не так прост, как это принято считать, и отбор осуществляется не только внешними, но и внутренними по отношению к видовой системе средствами. За редким исключением эти категории не имеют пока отражения в теории и практике современной информатики.

Системные исследования[править | править код]

Австро-американский биолог Людвиг фон Берталанфи в 1930-е годы предложил Общую теорию систем[9]. Его основная идея состоит в признании изоморфизма законов, управляющих функционированием системных объектов[10]. Многие понятия этой теории имеют корреляты в современной информатике. Это, например, объекты (ср. объектно-ориентированное программирование) и отношения (реляционные базы данных), система и среда (клиент-сервер-архитектура).

Но Берталанфи исследует и динамику систем — равновесие (гомеостаз), эволюция, адаптация, переходные процессы. Нельзя сказать, что эти темы полностью игнорируются сейчас информатикой, если иметь в виду, например, процесс разработки программного обеспечения. Здесь идёт настоящая смертельная схватка со сложностью и энтропией (ещё одно системное понятие). Если исправление одной ошибки в коде вызывает в среднем n новых ошибок, где n>1, то процесс разработки становится расходящимся. Вряд ли подобные проблемы не стояли и перед природой, и очень интересно, как она их решила.

Очень перспективным представляется системное понятие модели, блестящий логический анализ которого дан А. И. Уёмовым[11] Представляется, что любая компьютерная программа представляет собой модель некоторого реального объекта — идет ли речь о научных, бухгалтерских, игровых программах, навигаторах и т. д. Возможно, и в естественных системах обработки информации функция создания моделей принадлежит к числу системообразующих.

Исследования в биологии и медицине[править | править код]

Системная биология — научная дисциплина, образовавшаяся на стыке биологии и теории сложных систем. Впервые термин используется в статье 1993 года авторов W. Zieglgänsberger и TR. Tölle[12]. Но само направление несомненно существовало и раньше. Собственно, сам Берталанфи был биологом, поэтому он может рассматриваться, как патриарх этого направления.

И даже ещё раньше — уже в самом начале XX века русский физиолог Владимир Бехтерев обосновал 23 универсальных закона и распространил их на сферы психических и социальных процессов[13]. В 1935 году ученик академика Павлова Пётр Анохин ввел понятие «санкционирующая афферентация» (с 1952 г. — «обратная афферентация», позже, в кибернетике — «обратная связь»), тогда же в он дает первое определение функциональной системы[14], в определённой мере предвосхитившее теорию Берталанфи.

Здесь нельзя не упомянуть и разработанную самим И. П. Павловым концепцию условного рефлекса, в рамках работы над которой формировались системные взгляды Анохина.

Очень близки к информатике работы по расшифровке генетического кода ДНК.

Физика[править | править код]

Нередко сама Вселенная рассматривается с точки зрения информационных процессов. Выдвинута даже идея, что информация — это более фундаментальное понятие, чем материя и энергия. Тезис Цузе-Фредкина (Zuse-Fredkin), датируемый 1960-ми г.г., состоит в том, что вся Вселенная — это гигантский клеточный автомат, постоянно обновляющий свои правила.[15][16]

По другой версии Вселенная — это квантовый компьютер, который вычисляет своё собственное поведение[17].

Существует множество разработок вычислительных систем, опирающихся на принципы, подсмотренные в природе. Собственно, это является одним из предметов бионики, дисциплины, которая наряду с изучением, например полёта птиц или гидродинамики дельфинов, с целью повторения их в технических устройствах, занимается, например, также изучением информационных процессов в организме.

Примерами таких направлений являются искусственные нейронные сети, эволюционные алгоритмы, роевой интеллект, ДНК-компьютер, квантовый компьютер.

В сущности, все существующие методы и алгоритмы теоретической информатики являются «вдохновленными природой» алгоритмами[18] включая клеточные автоматы, эволюционные вычисления, роевой интеллект и другие. Детальный обзор может быть найден во многих книгах [19][20]

Моделирование естественных систем обработки информации служит, с одной стороны, их изучению и лучшему пониманию, а с другой — продуцирует идеи для реализации технических вычислительных систем. Это такие подходы, как искусственная жизнь, модели самовоспроизведения.

Создание математических или компьютерных моделей для изучения реальных объектов можно признать одним из важнейших признаков современной естественнонаучной дисциплины. Одной из первых численных моделей в биологии является модель британских нейрофизиологов и лауреатов нобелевской премии Ходжкина и Хаксли, опубликованная в 1952 году. Авторы создали математическую модель, объясняющую распространение потенциала действия вдоль аксона нейрона[21]. Их модель описывала механизм распространения потенциала как взаимодействие между двумя различными молекулярными компонентами: каналами для калия и натрия, что можно расценить как начало вычислительной системной биологии[22]. В 1960 году на основе модели Ходжкина и Хаксли Денис Нобл создал первую компьютерную модель сердечного водителя ритма[23].

Усилия понять природу биологических систем включают также создание полу-синтетических организмов.

  1. ↑ Wolfgang Hofkirchner. «Information Science»: An Idea Whose Time Has Come.- Informatik Forum 3/1995, 99-106
  2. ↑ Norbert Wiener (1948), Cybernetics or Control and Communication in the Animal and the Machine, (Hermann & Cie Editeurs, Paris, The Technology Press, Cambridge, Mass., John Wiley & Sons Inc., New York, 1948)
  3. Ian C. Johnston. History of Science: Early Modern Geology (неопр.). Malaspina University-College (1999). Дата обращения 15 января 2008. Архивировано 17 июня 2013 года.
  4. Bowler, Peter J. (англ.)русск.. Evolution:The History of an Idea (неопр.). — University of California Press (англ.)русск., 2003. — ISBN 0-52023693-9.
  5. Charles Darwin. On the Origin of Species (неопр.). — 1st. — London: John Murray, 1859. — С. 1.. Related earlier ideas were acknowledged in Charles Darwin. On the Origin of Species (неопр.). — 3rd. — London: John Murray, 1861. — С. xiii.
  6. AAAS Council. AAAS Resolution: Present Scientific Status of the Theory of Evolution (неопр.). American Association for the Advancement of Science (26 декабря 1922). Архивировано 20 августа 2011 года.
  7. ↑ IAP Statement on the Teaching of Evolution (неопр.) (PDF) (недоступная ссылка). The Interacademy Panel on International Issues (2006). Дата обращения 25 апреля 2007. Архивировано 12 июля 2006 года.
  8. ↑ Micle Behe, Darwin’s Black Box: The Biochemical Challenge to Evolution. Free Press, 1996.
  9. Берталанфи Л. фон Общая теория систем — Критический обзор Архивная копия от 15 января 2012 на Wayback Machine / В кн.: Исследования по общей теории систем.— М.: Прогресс, 1969. С. 23—82. На английском языке: L. von Bertalanffy, General System Theory — A Critical Review // «General Systems», vol. VII, 1962, p. 1—20.
  10. ↑ Философский словарь / Под ред. И. Т. Фролова. — 4-е изд.-М.: Политиздат, 1981. — 445 с.
  11. ↑ Уёмов, Авенир Иванович. Логические основы метода моделирования. М., 1971;
  12. ↑ The pharmacology of pain signalling. [Curr Opin Neurobiol. 1993] — PubMed result
  13. Брушлинский А. В., Кольцова В. А. Социально-психологическая концепция В. М. Бехтерева / В кн.: Бехтерев В. М. Избранные работы по социальной психологии.— М.: Наука, 1994. (Памятники психологической мысли), С.5.
  14. Анохин П. К. Узловые вопросы теории функциональных систем. — М.: Наука, 1980.
  15. ↑ Fredkin, F. Digital mechanics: An informational process based on reversible universal CA. Physica D 45 (1990) 254—270
  16. ↑ Zuse, K. Rechnender Raum. Elektronische Datenverarbeitung 8 (1967) 336—344
  17. ↑ Lloyd, S. Programming the Universe: A Quantum Computer Scientist Takes on the Cosmos. Knopf, 2006
  18. ↑ Yang, X.-S., Nature-inspired metaheuristic algorithms, Luniver Press, (2008).
  19. ↑ Olarius S., Zomaya A. Y., Handbook of Bioinspired Algorithms and Applications, Chapman & Hall/CRC, 2005.
  20. ↑ de Castro, L. N., Fundamentals of Natural Computing: Basic Concepts, Algorithms, and Applications, CRC Press, 2006.
  21. Hodgkin A.L., Huxley A.F. A quantitative description of membrane current and its application to conduction and excitation in nerve (англ.) // J Physiol (англ.)русск. : journal. — 1952. — Vol. 117, no. 4. — P. 500—544. — PMID 12991237.
  22. Le Novere; Le Novere, N. The long journey to a Systems Biology of neuronal function (англ.) // BMC Systems Biology (англ.)русск. : journal. — 2007. — Vol. 1. — P. 28. — DOI:10.1186/1752-0509-1-28. — PMID 17567903.
  23. Noble D. Cardiac action and pacemaker potentials based on the Hodgkin-Huxley equations (англ.) // Nature : journal. — 1960. — Vol. 188. — P. 495—497. — DOI:10.1038/188495b0. — PMID 13729365.
  • Моделирование в биологии, пер. с англ., под ред. Н. А. Бернштейна, М., 1963.
  • Парин В. В. и Баевский Р. М., Кибернетика в медицине и физиологии, М., 1963.
  • Брайнес С. Н., Свечинский В. Б., Проблемы нейрокибернетики и нейробионики, М., 1968.
  • Игнатьев М. Б. «Артоника» Статья в словаре-справочнике «Системный анализ и принятие решений»изд. Высшая школа, М., 2004.
  • Шеннон К. Работы по теории информации и кибернетике. — М.: Изд. иностр. лит., 1963. — 830 с.
  • Эшби У. Р. Введение в кибернетику. — М.: Изд. иностр. лит., 1959. — 432 с.
  • Гринченко С. Н. История человечества с кибернетических позиций // История и Математика: Проблемы периодизации исторических макропроцессов. — М.: КомКнига, 2006. — С. 38—52.
  • Lakhmi C. Jain; N.M. Martin Fusion of Neural Networks, Fuzzy Systems and Genetic Algorithms: Industrial Applications. — CRC Press, CRC Press LLC, 1998
  • Емельянов В. В., Курейчик В. В., Курейчик В. Н. Теория и практика эволюционного моделирования. — М: Физматлит, 2003.

ИНФОРМАТИКА | Энциклопедия Кругосвет

Содержание статьи

ИНФОРМАТИКА техническая наука, систематизирующая приемы создания, хранения, обработки и передачи информации средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

В англоязычных странах применяют термин computer science – компьютерная наука.

Теоретической основой информатики является группа фундаментальных наук таких как: теория информации, теория алгоритмов, математическая логика, теория формальных языков и грамматик, комбинаторный анализ и т.д. Кроме них информатика включает такие разделы, как архитектура ЭВМ, операционные системы, теория баз данных, технология программирования и многие другие. Важным в определении информатики как науки является то, что с одной стороны, она занимается изучением устройств и принципов действия средств вычислительной техники, а с другой – систематизацией приемов и методов работы с программами, управляющими этой техникой.

Информационная технология – это совокупность конкретных технических и программных средств, с помощью которых выполняются разнообразные операции по обработке информации во всех сферах нашей жизни и деятельности. Иногда информационную технологию называют компьютерной технологией или прикладной информатикой.

Информация аналоговая и цифровая.

Термин «информация» восходит к латинскому informatio, разъяснение, изложение, осведомленность.

Информацию можно классифицировать разными способами, и разные науки это делают по-разному. Например, в философии различают информацию объективную и субъективную. Объективная информация отражает явления природы и человеческого общества. Субъективная информация создается людьми и отражает их взгляд на объективные явления.

В информатике отдельно рассматривается аналоговая информация и цифровая. Это важно, поскольку человек благодаря своим органам чувств, привык иметь дело с аналоговой информацией, а вычислительная техника, наоборот, в основном, работает с цифровой информацией.

Человек воспринимает информацию с помощью органов чувств. Свет, звук, тепло – это энергетические сигналы, а вкус и запах – это результат воздействия химических соединений, в основе которого тоже энергетическая природа. Человек испытывает энергетические воздействия непрерывно и может никогда не встретиться с одной и той же их комбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютно одинаковых звуков – это информация аналоговая. Если же разным цветам дать номера, а разным звукам – ноты, то аналоговую информацию можно превратить в цифровую.

Музыка, когда ее слушают, несет аналоговую информацию, но если записать ее нотами, она становится цифровой.

Разница между аналоговой информацией и цифровой, прежде всего, в том, что аналоговая информация непрерывна, а цифровая дискретна.

К цифровым устройствам относятся персональные компьютеры – они работают с информацией, представленной в цифровой форме, цифровыми являются и музыкальные проигрыватели лазерных компакт дисков.

Кодирование информации.

Кодирование информации – это процесс формирования определенного представления информации.

В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (звуки, изображения, показания приборов и т. д.) для обработки на компьютере должна быть преобразована в числовую форму. Например, чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме. С помощью компьютерных программ можно преобразовывать полученную информацию, например «наложить» друг на друга звуки от разных источников.

Аналогично на компьютере можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.

Как правило, все числа в компьютере представляются с помощью нулей и единиц (а не десяти цифр, как это привычно для людей). Иными словами, компьютеры обычно работают в двоичной системе счисления, поскольку при этом устройства для их обработки получаются значительно более простыми.

Единицы измерения информации. Бит. Байт.

Бит – наименьшая единица представления информации. Байт – наименьшая единица обработки и передачи информации.

Решая различные задачи, человек использует информацию об окружающем нас мире. Часто приходится слышать, что сообщение несет мало информации или, наоборот, содержит исчерпывающую информацию, при этом разные люди, получившие одно и то же сообщение (например, прочитав статью в газете), по-разному оценивают количество информации, содержащейся в нем. Это означает, что знания людей об этих событиях (явлениях) до получения сообщения были различными. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя. Если в результате получения сообщения достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что получена исчерпывающая информация. Это означает, что нет необходимости в дополнительной информации на эту тему. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

Подбрасывание монеты и слежение за ее падением дает определенную информацию. Обе стороны монеты «равноправны», поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1 бит. Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также получим информацию о цвете шара в 1 бит.

Единица измерения информации называется бит (bit) – сокращение от английских слов binary digit, что означает двоичная цифра.

В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено – не намагничено, есть отверстие – нет отверстия. При этом одно состояние принято обозначать цифрой 0, а другое – цифрой 1. Выбор одного из двух возможных вариантов позволяет также различать логические истину и ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием (binary encoding).

В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт, соответственно, 1 из 256 (28). Наряду с байтами для измерения количества информации используются более крупные единицы:

1 Кбайт (один килобайт) = 2\up1210 байт = 1024 байта;

1 Мбайт (один мегабайт) = 2\up1210 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 2\up1210 Мбайт = 1024 Мбайта.

Например, книга содержит 100 страниц; на каждой странице – 35 строк, в каждой строке – 50 символов. Объем информации, содержащийся в книге, рассчитывается следующим образом:

Страница содержит 35 × 50 = 1750 байт информации. Объем всей информации в книге (в разных единицах):

1750 × 100 = 175 000 байт.

175 000 / 1024 = 170,8984 Кбайт.

170,8984 / 1024 = 0,166893 Мбайт.

Файл. Форматы файлов.

Файл – наименьшая единица хранения информации, содержащая последовательность байтов и имеющая уникальное имя.

Основное назначение файлов – хранить информацию. Они предназначены также для передачи данных от программы к программе и от системы к системе. Другими словами, файл – это хранилище стабильных и мобильных данных. Но, файл – это нечто большее, чем просто хранилище данных. Обычно файл имеет имя, атрибуты, время модификации и время создания.

Файловая структура представляет собой систему хранения файлов на запоминающем устройстве, например, на диске. Файлы организованы в каталоги (иногда называемые директориями или папками). Любой каталог может содержать произвольное число подкаталогов, в каждом из которых могут храниться файлы и другие каталоги.

Способ, которым данные организованы в байты, называется форматом файла.

Для того чтобы прочесть файл, например, электронной таблицы, нужно знать, каким образом байты представляют числа (формулы, текст) в каждой ячейке; чтобы прочесть файл текстового редактора, надо знать, какие байты представляют символы, а какие шрифты или поля, а также другую информацию.

Программы могут хранить данные в файле способом, выбираемым программистом. Часто предполагается, однако, что файлы будут использоваться различными программами, поэтому многие прикладные программы поддерживают некоторые наиболее распространенные форматы, так что другие программы могут понять данные в файле. Компании по производству программного обеспечения (которые хотят, чтобы их программы стали «стандартами»), часто публикуют информацию о создаваемых ими форматах, чтобы их можно было бы использовать в других приложениях.

Все файлы условно можно разделить на две части – текстовые и двоичные.

Текстовые файлы – наиболее распространенный тип данных в компьютерном мире. Для хранения каждого символа чаще всего отводится один байт, а кодирование текстовых файлов выполняется с помощью специальных таблиц, в которых каждому символу соответствует определенное число, не превышающее 255. Файл, для кодировки которого используется только 127 первых чисел, называется ASCIIфайлом (сокращение от American Standard Code for Information Intercange – американский стандартный код для обмена информацией), но в таком файле не могут быть представлены буквы, отличные от латиницы (в том числе и русские). Большинство национальных алфавитов можно закодировать с помощью восьмибитной таблицы. Для русского языка наиболее популярны на данный момент три кодировки: Koi8-R, Windows-1251 и, так называемая, альтернативная (alt) кодировка.

Такие языки, как китайский, содержат значительно больше 256 символов, поэтому для кодирования каждого из них используют несколько байтов. Для экономии места зачастую применяется следующий прием: некоторые символы кодируются с помощью одного байта, в то время как для других используются два или более байтов. Одной из попыток обобщения такого подхода является стандарт Unicode, в котором для кодирования символов используется диапазон чисел от нуля до 65 536. Такой широкий диапазон позволяет представлять в численном виде символы языка любого уголка планеты.

Но чисто текстовые файлы встречаются все реже. Документы часто содержат рисунки и диаграммы, используются различные шрифты. В результате появляются форматы, представляющие собой различные комбинации текстовых, графических и других форм данных.

Двоичные файлы, в отличие от текстовых, не так просто просмотреть, и в них, обычно, нет знакомых слов – лишь множество непонятных символов. Эти файлы не предназначены непосредственно для чтения человеком. Примерами двоичных файлов являются исполняемые программы и файлы с графическими изображениями.

Примеры двоичного кодирования информации.

Среди всего разнообразия информации, обрабатываемой на компьютере, значительную часть составляют числовая, текстовая, графическая и аудиоинформация. Познакомимся с некоторыми способами кодирования этих типов информации в ЭВМ.

Кодирование чисел.

Есть два основных формата представления чисел в памяти компьютера. Один из них используется для кодирования целых чисел, второй (так называемое представление числа в формате с плавающей точкой) используется для задания некоторого подмножества действительных чисел.

Множество целых чисел, представимых в памяти ЭВМ, ограничено. Диапазон значений зависит от размера области памяти, используемой для размещения чисел. В k-разрядной ячейке может храниться 2k различных значений целых чисел.

Чтобы получить внутреннее представление целого положительного числа N, хранящегося в k-разрядном машинном слове, нужно:

1) перевести число N в двоичную систему счисления;

2) полученный результат дополнить слева незначащими нулями до k разрядов.

Например, для получения внутреннего представления целого числа 1607 в 2-х байтовой ячейке число переводится в двоичную систему: 160710 = 110010001112. Внутреннее представление этого числа в ячейке имеет вид: 0000 0110 0100 0111.

Для записи внутреннего представления целого отрицательного числа (–N) нужно:

1) получить внутреннее представление положительного числа N;

2) получить обратный код этого числа, заменяя 0 на 1 и 1 на 0;

3) полученному числу прибавить 1 к полученному числу.

Внутреннее представление целого отрицательного числа –1607. С использованием результата предыдущего примера и записывается внутреннее представление положительного числа 1607: 0000 0110 0100 0111. Обратный код получается инвертированием: 1111 1001 1011 1000. Добавляется единица: 1111 1001 1011 1001 – это и есть внутреннее двоичное представление числа –1607.

Формат с плавающей точкой использует представление вещественного числа R в виде произведения мантиссы m на основание системы счисления n в некоторой целой степени p, которую называют порядком: R = m * n p.

Представление числа в форме с плавающей точкой неоднозначно. Например, справедливы следующие равенства:

12,345 = 0,0012345 × 104 = 1234,5 × 10-2 = 0,12345 × 102

Чаще всего в ЭВМ используют нормализованное представление числа в форме с плавающей точкой. Мантисса в таком представлении должна удовлетворять условию:

0,1p Ј m p. Иначе говоря, мантисса меньше 1 и первая значащая цифра – не ноль (p – основание системы счисления).

В памяти компьютера мантисса представляется как целое число, содержащее только значащие цифры (0 целых и запятая не хранятся), так для числа 12,345 в ячейке памяти, отведенной для хранения мантиссы, будет сохранено число 12 345. Для однозначного восстановления исходного числа остается сохранить только его порядок, в данном примере – это 2.

Кодирование текста.

Множество символов, используемых при записи текста, называется алфавитом. Количество символов в алфавите называется его мощностью.

Для представления текстовой информации в компьютере чаще всего используется алфавит мощностью 256 символов. Один символ из такого алфавита несет 8 бит информации, т. к. 28 = 256. Но 8 бит составляют один байт, следовательно, двоичный код каждого символа занимает 1 байт памяти ЭВМ.

Все символы такого алфавита пронумерованы от 0 до 255, а каждому номеру соответствует 8-разрядный двоичный код от 00000000 до 11111111. Этот код является порядковым номером символа в двоичной системе счисления.

Для разных типов ЭВМ и операционных систем используются различные таблицы кодировки, отличающиеся порядком размещения символов алфавита в кодовой таблице. Международным стандартом на персональных компьютерах является уже упоминавшаяся таблица кодировки ASCII.

Принцип последовательного кодирования алфавита заключается в том, что в кодовой таблице ASCII латинские буквы (прописные и строчные) располагаются в алфавитном порядке. Расположение цифр также упорядочено по возрастанию значений.

Стандартными в этой таблице являются только первые 128 символов, т. е. символы с номерами от нуля (двоичный код 00000000) до 127 (01111111). Сюда входят буквы латинского алфавита, цифры, знаки препинания, скобки и некоторые другие символы. Остальные 128 кодов, начиная со 128 (двоичный код 10000000) и кончая 255 (11111111), используются для кодировки букв национальных алфавитов, символов псевдографики и научных символов.

Кодирование графической информации.

В видеопамяти находится двоичная информация об изображении, выводимом на экран. Почти все создаваемые, обрабатываемые или просматриваемые с помощью компьютера изображения можно разделить на две большие части – растровую и векторную графику.

Растровые изображения представляют собой однослойную сетку точек, называемых пикселами (pixel, от англ. picture element). Код пиксела содержит информации о его цвете.

Для черно-белого изображения (без полутонов) пиксел может принимать только два значения: белый и черный (светится – не светится), а для его кодирования достаточно одного бита памяти: 1 – белый, 0 – черный.

Пиксел на цветном дисплее может иметь различную окраску, поэтому одного бита на пиксел недостаточно. Для кодирования 4-цветного изображения требуются два бита на пиксел, поскольку два бита могут принимать 4 различных состояния. Может использоваться, например, такой вариант кодировки цветов: 00 – черный, 10 – зеленый, 01 – красный, 11 – коричневый.

На RGB-мониторах все разнообразие цветов получается сочетанием базовых цветов – красного (Red), зеленого (Green), синего (Blue), из которых можно получить 8 основных комбинаций:

R R
G G
B B
цвет цвет
0 1
0 0
0 0
черный красный
0 1
0 0
1 1
синий розовый
0 1
1 1
0 0
зеленый коричневый
0 1
1 1
1 1
голубой белый

Разумеется, если иметь возможность управлять интенсивностью (яркостью) свечения базовых цветов, то количество различных вариантов их сочетаний, порождающих разнообразные оттенки, увеличивается. Количество различных цветов – К и количество битов для их кодировки – N связаны между собой простой формулой: 2N = К.

В противоположность растровой графике векторное изображение многослойно. Каждый элемент векторного изображения – линия, прямоугольник, окружность или фрагмент текста – располагается в своем собственном слое, пикселы которого устанавливаются независимо от других слоев. Каждый элемент векторного изображения является объектом, который описывается с помощью специального языка (математических уравнения линий, дуг, окружностей и т.д.) Сложные объекты (ломаные линии, различные геометрические фигуры) представляются в виде совокупности элементарных графических объектов.

Объекты векторного изображения, в отличие от растровой графики, могут изменять свои размеры без потери качества (при увеличении растрового изображения увеличивается зернистость).

Кодирование звука.

Из физики известно, что звук – это колебания воздуха. Если преобразовать звук в электрический сигнал (например, с помощью микрофона), то видно плавно изменяющееся с течением времени напряжение. Для компьютерной обработки такой – аналоговый – сигнал нужно каким-то образом преобразовать в последовательность двоичных чисел.

Делается это, например, так – измеряется напряжение через равные промежутки времени и полученные значения записываются в память компьютера. Этот процесс называется дискретизацией (или оцифровкой), а устройство, выполняющее его – аналого-цифровым преобразователем (АЦП).

Чтобы воспроизвести закодированный таким образом звук, нужно сделать обратное преобразование (для этого служит цифро-аналоговый преобразователь – ЦАП), а затем сгладить получившийся ступенчатый сигнал.

Чем выше частота дискретизации и чем больше разрядов отводится для каждого отсчета, тем точнее будет представлен звук, но при этом увеличивается и размер звукового файла. Поэтому в зависимости от характера звука, требований, предъявляемых к его качеству и объему занимаемой памяти, выбирают некоторые компромиссные значения.

Описанный способ кодирования звуковой информации достаточно универсален, он позволяет представить любой звук и преобразовывать его самыми разными способами. Но бывают случаи, когда выгодней действовать по-иному.

Издавна используется довольно компактный способ представления музыки – нотная запись. В ней специальными символами указывается, какой высоты звук, на каком инструменте и как сыграть. Фактически, ее можно считать алгоритмом для музыканта, записанным на особом формальном языке. В 1983 ведущие производители компьютеров и музыкальных синтезаторов разработали стандарт, определивший такую систему кодов. Он получил название MIDI.

Конечно, такая система кодирования позволяет записать далеко не всякий звук, она годится только для инструментальной музыки. Но есть у нее и неоспоримые преимущества: чрезвычайно компактная запись, естественность для музыканта (практически любой MIDI-редактор позволяет работать с музыкой в виде обычных нот), легкость замены инструментов, изменения темпа и тональности мелодии.

Есть и другие, чисто компьютерные, форматы записи музыки. Среди них – формат MP3, позволяющий с очень большим качеством и степенью сжатия кодировать музыку, при этом вместо 18–20 музыкальных композиций на стандартном компакт-диске (CDROM) помещается около 200. Одна песня занимает, примерно, 3,5 Mb, что позволяет пользователям сети Интернет легко обмениваться музыкальными композициями.

Компьютер – универсальная информационная машина.

Одно из основных назначений компьютера – обработка и хранение информации. С появлением ЭВМ стало возможным оперировать немыслимыми ранее объемами информации. В электронную форму переводят библиотеки, содержащие научную и художественную литературы. Старые фото- и кино-архивы обретают новую жизнь в цифровой форме.

Анна Чугайнова

Теоретическая информатика — Википедия

Материал из Википедии — свободной энциклопедии

Теоретическая информатика — это научная область, предметом изучения которой являются информация и информационные процессы, в которой осуществляется изобретение и создание новых средств работы с информацией. Это подразделение общей информатики и математики, которое сосредотачивается на более абстрактных или математических аспектах вычислительной техники и включает в себя теорию алгоритмов.

Как любая фундаментальная наука, теоретическая информатика (в тесном взаимодействии с философией и кибернетикой) занимается созданием системы понятий, выявлением общих закономерностей, позволяющих описывать информацию и информационные процессы, протекающие в различных сферах (в природе, обществе, человеческом организме, технических системах).

Не просто точно описать рамки данной теории. ACM SIGACT (англ. Association for Computing Machinery Special Interest Group on Algorithms and Computation Theory), подгруппа ACM, описывает науку, как поддержку теоретической информатики и отмечает:

Область теоретической информатики толкуется широко и включает в себя алгоритмы, структуры данных, теорию сложности вычислений, распределенные вычисления, параллельные вычисления, СБИС (сверхбольшая интегральная схема), машинное обучение, вычислительную биологию, вычислительную геометрию, теории информации, криптографию, квантовый компьютинг, теорию чисел, алгебру и теорию вычисления (символьные вычисления), семантику и верификацию языков программирования, теорию автоматов, а также теории случайных процессов. Работа в этой области часто отличается акцентом на математической технике и строгости.

К этому списку научный журнал «ACM Transactions on Computation Theory» (TOCT) также добавляет теорию кодирования, теорию вычислительного обучения и аспекты теоретической информатики в таких областях, как базы данных, информационный поиск, экономические модели и сети. Несмотря на такую широкую сферу деятельности, теоретики информатики отличают себя от практиков. Некоторые характеризуют себя как тех, кто делает «более фундаментальный научный труд, что лежит в основе области вычислительной техники». Другие же «теоретики-практики» настаивают, что невозможно отделить теории от практики. Это означает, что теоретики регулярно используют экспериментальную науку, которая выполняется в менее теоретических областях, таких как исследование систем программного обеспечения.

Ответы@Mail.Ru: что такое информатика

<a rel=»nofollow» href=»http://ru.wikipedia.org/wiki/Информатика» target=»_blank» >Информатика — наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации. </a> Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования. Термин «информатика» (франц. informatique) происходит от французских слов information (информация) и automation (автоматика) и дословно означает «информационная автоматика» Информатика — это основанная на использовании копьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности. В 1978 году международный конгресс официально закрепил за понятием «информатика» области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политеческие аспекты копьютеризации — массового внедрения компьютерной техники во все области жизни людей. Информатика состоит из двух частей: -технические средства -программные средства Технические средства — это аппаратура компьютеров (Hardware). Программные средства (Software), которые подчёркивают равнозначность программного обеспечения модифицироваться, приспосабливаться, развиваться. В информатику входят ещё алгоритмические средства. Эта часть связана с разработкой алгоритмов и изучения методов и приёмов их построения.

Информатика — это наука о вычислении, вычислительных машинах, хранении и обработке информации.

Информатика Информа́тика (фр. Informatique; англ. Computer science) — наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий…

Информатика — это наука о законах, методах накопления и обработки, предоставляющая информацию с помощью ЭВМ

Это информатика.

Информа́тика (фр. Informatique; англ. Computer science) — наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность её использования для принятия решений [1]. Информатика включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и конкретные, например разработка языков программирования и протоколов передачи данных. Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект), каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений), в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных), как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п.

Информатика — наука связанная с компьютерами :)))

как работать в бэйсике? помогите пожалуйста

Ответы@Mail.Ru: Что изучает наука информатика?

Информатика — это наука, которая изучает законы, методы и способы накопления, хранения, обработки и передачи информации с помощью компьютеров и других технических средств.

Информатика — наука, изучающая информацию и информационные процессы. Так в школе учили.

Фигню всякую)))))))))) Как пользоваться компом и интернетом….А то вдруг не дай Бог ты взорвешь или сломаешь комп….для этого и нужна информатика!!!!

Интернет и всякое такое

Информа́тика — наука о способах получения, накопления, хранения, преобразования, передачи и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования. Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект) , каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений) , в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных) , как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п.

Ответы@Mail.Ru: Что изучает информатика

Информатика изучает свойства информации (полезность, актуальность, достоверность, объективность, распознаваемость, полнота, нематериальность) , а также информационные процессы (поиск, сбор, обработка, передача, хранение информации) Коротко, но ясно!

В широком смысле информа&#769;тика (ср. со сходными по звучанию и происхождению нем. Informatik и фр. Informatique, в противоположность традиционному англоязычному термину англ. computer science — наука о компьютерах-в США или англ. computing science — вычислительная наука-в Британии) есть наука о вычислениях, хранении и обработке информации. Она включает дисциплины, так или иначе относящиеся к вычислительным машинам: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования. Информатика — это вид деятельности (может и наука, но не вижу четкого объекта и предмета изучения) связанный со (далее, в логической последовательности) : 1. Сбором. 2. Хранением. 3. Накоплением. 4. Обработкой. 5. Передачей информации. «Информатика — это научная дисциплина, изучающая структуру и свойства научной информации, а также закономерности научно-информационной деятельности, ее теорию, методику и организацию».

Информа&#769;тика — наука о способах получения, накопления, хранения, преобразования, передачи и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования. Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект) , каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений) , в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных) , как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п.

математика литература физика химия

Информатика изучает свойства информации а также информационные процессы

Информа́тика — наука о способах получения, накопления, хранения, преобразования, передачи и использования информации. Она включает дисциплины, относящиеся к обработке информации в вычислительных машинах и вычислительных сетях: как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования. Темами исследований в информатике являются вопросы: что можно, а что нельзя реализовать в программах и базах данных (теория вычислимости и искусственный интеллект) , каким образом можно решать специфические вычислительные и информационные задачи с максимальной эффективностью (теория сложности вычислений) , в каком виде следует хранить и восстанавливать информацию специфического вида (структуры и базы данных) , как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования и представление знаний) и т. п.

Leave a comment