Что такое инфория: Состояние эйфории: что это значит, виды, признаки – Эйфория — Википедия

Состояние эйфории: что это значит, виды, признаки

Приподнятое настроение, ощущение полного благополучия и счастья периодически посещает людей как поодиночке, так и массово. Внезапный всплеск позитивных эмоций может быть проявлением нормы или патологии в зависимости от первоисточника.

Специалисты настороженно относятся к подобным состояниям, особенно при несоответствии большой радости объективным обстоятельствам. Как расценивается эйфория психиатрами, почему она возникает и что с ней делать – попробуем разобраться.


Что это такое

«Эйфория» в буквальном переводе с греческого языка значит «несущее хорошее».

sostoyanie-ekstaza-ejforii

Обыватели и специалисты от медицины понимают данный термин по-разному. Первые считают, что яркие положительные эмоции, внезапное всепоглощающее счастье, восторг, верх блаженства – это нормальная реакция, возникающая в определенные моменты жизни у всех людей, например, в период влюбленности.

Однако для медиков такие проявления могут означать наличие патологии, особенно при внезапном наступлении приподнятого настроения без видимых на то причин.

banner-alkozeroks

kak-poluchit-ejforiyu

Почему к эйфории специалисты относятся настороженно? Состояние, в котором абсолютно счастливый человек теряет самоконтроль и способность адекватно воспринимать окружающих людей и действительность, нередко служит признаком начинающегося психического заболевания или является результатом воздействия психостимулирующих веществ.

 Что означает слово «эйфория» в клинической психиатрии, может показаться неожиданным для неподготовленных людей. Так обозначается форма болезненно-повышенного настроения, которая характеризуется благодушием, безмятежностью и тихой радостью без повышения при этом двигательной и интеллектуальной активности человека.

Подобные симптомы появляются при множестве психических расстройств, в частности имеющих маниакальный характер. Затяжные формы патологического воодушевления способны не только доставить человеку радость, но и нанести организму вред вследствие сильного эмоционального истощения.

Некоторые люди путают значение слова эйфория и экстаз. Последний тоже означает высшую степень восторга, однако, в более ярком и кратковременном варианте. Можно сказать, что эйфория – это в психологии длительный и затяжной экстаз или их серия.

Как возникает эйфория

С научной точки зрения появление внезапного приподнятого состояния духа и блаженства является результатом сложных физиологических процессов. Считается, что в основе лежит выработка нейронами головного мозга специальных химических веществ, называемых гормонами счастья и радости (эндорфинов).

Однако для вызова эйфории требуется участие и взаимодействие между собой и других нейромедиаторов.

gormony-schstjya

Причины возникновения подобного состояния можно разделить на две группы:

  • естественные – это те моменты, которые нечасто, но все же встречаются в жизни большинства людей;
  • искусственные – как получить неземное удовольствие, осведомлена часть населения, ведущая определенный образ бытия, либо страдающая некоторыми болезнями.

narkotikКогда может случиться естественная эйфория:

  • при получении приятного известия – крупный выигрыш, поступление в ВУЗ, получение награды, общественное признание;
  • в период влюбленности – от взаимности любимого человека, первого поцелуя и т.д.;
  • после удачно пережитой смертельной опасности – эйфорию при этом провоцирует резко повышенный уровень адреналина в крови;
  • при рождении долгожданного ребенка;
  • во время прослушивания любимого музыкального или литературного произведения.

chuvstvo-ejforiiИскусственно созданное блаженство возникает при следующих обстоятельствах:

  • прием алкоголя;
  • употребление наркотических средств;
  • воздействие некоторых лекарственных препаратов.

Кроме этого, чувство эйфории может появиться у человека, перенесшего сильную интоксикацию, кислородное голодание или черепно-мозговую травму, а также при органическом поражении головного мозга (опухоли, кисты).

eto-v-psihologii

Пациенты психиатра нередко выдают данное состояние при следующих заболеваниях:

Виды эйфории

Диагностика обычно не составляет труда ввиду яркости клинических проявлений. Физиологическая (нормальная) форма эйфории отличается кратковременностью и наличием объективной причины. Человек при этом расслабляется, избавляется от стресса, наполняется положительными эмоциями.

Патологический вариант чрезмерной радости является немотивированным и длится долго.

Искусственно вызванное состояние блаженства затягивает, у людей возникает потребность вернуться за ним снова. Это в конечном итоге приводит к депрессии, которая может выражаться в агрессивности, подавленности, снижении интеллектуальной активности и т.д.

В зависимости от причины возникновения эйфория бывает следующих видов:

  1. Музыкальная – человек получает особое удовольствие от воздействия пульсирующих звуковых волн на мозг, иногда это может даже вызвать привыкание у подростков и молодых людей.muzyka-ekstaz
  2. Наркотическая – многократное состояние экстаза после принятия химических веществ сопровождается формированием физической и психической зависимости. kajf-narkomanaСо временем требуется увеличение дозы, а после прекращения действия средства наступает глубочайшая депрессия. Отменить наркотик обычно удается только в специализированном лечебном учреждении.
  3. Алкогольная – изменение метаболизма на фоне приема алкогольных напитков способствует образованию очагов ишемии и кислородному голоданию мозга. alkogolnaya-ejforiyaСостояние похмелья требует новых доз, что также приводит к зависимости. Отмена приводит к физическим страданиям и депрессии.

Внезапная эйфория без видимых причин обычно свидетельствует о психическом расстройстве или заболевании головного мозга. Поэтому таких людей обязательно надо обследовать и лечить.

Наркоманы и алкоголики нуждаются в оказании квалифицированной помощи в соответствующих реабилитационных центрах. Отсутствие своевременного лечения может привести к опасным для здоровья и жизни последствиям вплоть до летального исхода.

Видео:

Эйфория — Википедия

Материал из Википедии — свободной энциклопедии

Эйфори́я (др.-греч. εὐφορία «плодовитость», из εὖ «хорошо» + φορέω «несу, ношу», то есть буквально «хорошо несущая») — положительно окрашенный аффект или эмоция. Ощущается как очень мощное, внезапное, всезаполняющее чувство счастья, восторга.

Форма болезненно-повышенного настроения, характеризующаяся благодушием, безмятежным блаженством, состоянием тихой радости. В отличие от гипертимии, для эйфории не характерно повышение двигательной и интеллектуальной активности, напротив, может наблюдаться замедление мыслительной деятельности (вплоть до персевераций).

Феномен, являющейся составной частью синдрома наркотического опьянения, включающий изменённое состояние психики и различные соматические ощущения человека, находящегося в наркотическом опьянении. То есть, в широком смысле, эйфория включает в себя не только эмоциональные изменения, но и целый ряд психических и соматических ощущений, чувствований, за счёт которых достигается положительный эмоциональный сдвиг.

Структура эйфории различна для состояний опьянения, вызванных разными наркотиками. Эйфория, вызванная употреблением алкоголя и снотворных препаратов, слагается из собственно эмоциональных изменений в сочетании с приятной двигательной и интеллектуальной заторможенностью. Опийная эйфория характеризуется состоянием соматического наслаждения на фоне эмоционального покоя, блаженства без интеллектуальной заторможенности. При употреблении стимуляторов положительный эмоциональный сдвиг вторичен и обусловлен физическим и интеллектуальным просветлением, подъёмом, ощущением общего подъёма жизнедеятельности. Эйфория при употреблении каннабиноидов и психоделиков имеет в качестве первопричины изменения восприятия и мышления особое мистическое, фантастическое состояние сознания.

Несмотря на разнообразие изменений психики, возникающих при опьянении различными наркотическими веществами, можно отметить, что чем более проявляются следующие признаки, тем более сильную эйфорию может испытывать индивид:

  • неуправляемость психической деятельности;
  • диссоциация психической деятельности;
  • протопатичность ощущений — их глубинность, безотчетность, необъяснимость.

Эйфория каждого вида наркотического опьянения является динамическим феноменом, включающим несколько последовательно сменяющих друг друга фаз. Собственно эйфория отчётливее всего ощущается в динамике, при переходе от нормального или плохого настроения до чрезвычайно повышенного. Характер, длительность каждой фазы при приёме одного и того же наркотика может меняться в зависимости от субъективной установки человека, пути введения наркотического вещества, и особенно, от стадии заболевания (наркомании) — в динамике каждого вида наркомании эйфория претерпевает существенную трансформацию.

Что такое информация? / Habr

Исследование How Much Information, проведенное в 2009 году показало, что количество потребляемой в неделю информации с 1986 года выросло в 5 раз. С 250 тысяч слов в неделю до 1,25 миллиона! С тех пор это цифра увеличилась в разы. Далее следуют ошеломительные показатели: в 2018 году количество интернет-пользователей и пользователей социальных сетей — 4.021 млрд и 3.196 млрд. Современный человек за день анализирует невероятное количество информации, применяя различные схемы и стратегии по ее обработке, для принятия выгодных решений. Человеческий вид сгенерировал 90% информации в этом мире за два последних года. Сейчас, если округлять, в день мы производим порядка 2,5 квинтильонов байт (2,5 * 10^18 байт) новой информации. Если разделить это число на количество живущих сейчас людей, то получится, что в среднем один человек за день создает 0,3 гигабайта информации.

Сколько информации занимают Homo sapiens? (далее Homo). Для простоты в информатике придумали термин под названием бит. Бит – это минимальная единица информации. Файл с этой работой занимает несколько килобайт. Такой документ пятьдесят лет назад занял бы всю память самого мощного компьютера. Средняя книга в цифровом варианте занимает в тысячу раз больше места и это уже мегабайт. Качественное фото на мощный фотоаппарат – 20 мегабайт. Один цифровой диск в 40 раз больше. Интересные масштабы начинаются с гигабайтов. ДНК человека, вся информация о нас с вами равна около 1,5 гигабайта. Умножаем это на семь миллиардов и получаем 1,05х10^19 байт. В целом, такой объем информации в современных условиях мы можем произвести за 10 дней. Это количество битов опишет всех живущих сейчас людей. И это только данные о самих людях, без взаимодействий между ними, без взаимодействий с природой и культурой, которую человек сам для себя создал. Насколько увеличится эта цифра, если добавлять переменные и неопределенности будущего? Хаос будет подходящим словом.

Информация обладает удивительным свойством. Даже когда ее нет, она есть. И здесь нужен пример. В поведенческой биологии есть знаменитый эксперимент. Друг напротив друга стоит две клетки. В 1-ой обезьяна высокого ранга. Альфа-самец. Во 2-ой клетке обезьяна статусом ниже, бета-самец. Обе обезьяны могут наблюдать за своим визави. Добавим в эксперимент фактор влияния. Между двумя клетками кладем банан. Бета-самец не посмеет взять банан, если знает, что альфа-самец тоже видел этот банан. Ибо он сразу прочувствует всю агрессию альфа-самца. Далее немного изменяют первоначальные условия опыта. Клетку альфа-самца накрывают непрозрачной тканью, чтобы лишить его обзора. Повторяя все то, что сделали до этого, картина становится совершенно иной. Бета-самец без каких-либо угрызений совести подходит и берет банан.

Все дело в его умении анализировать, он знает о том, что альфа-самец не видел, как положили банан и для него банана просто не существует. Бета-самец проанализировал факт отсутствия сигнала о появлении информации о банане у альфа-самца и воспользовался ситуацией. Постановка конкретного диагноза пациенту во многих случаях производится при нахождении у него определенных симптомов, однако огромное количество заболеваний, вирусов и бактерий может поставить даже опытного врача в тупик, как ему определить точный диагноз, не потратив время, которое может быть жизненно важно для пациента? Все просто. Он производит анализ не только по тем симптомам, которые есть у больного, но и по тем, которых у него нет, что сокращает время поиска в десятки раз. Если что-то не подает тот или иной сигнал, это тоже несет определенную информацию – как правило, негативного характера, но не всегда. Анализируйте не только информационные сигналы, которые есть, но и те, которых нет.

Эти примеры, добавляют нулей и единичек в цифры выше. В связи с перечисленными цифрами и проблемами возникает ряд вопросов. Как? Как этого удалось достигнуть? Способен ли организм/общество нормально функционировать в таких условиях. Как информация влияет на биологические, экономические и другие виды систем. Объем информации, который мы воспринимаем в 2019 году, покажется мизерным для потомков из 2050. Уже сейчас вид создает новые схемы и паттерны работы с информацией, изучает ее свойства и воздействие. Фраза: — “за год я прожил миллион лет” уже не шутки и не абсурд, а реальность. Количество информации, которое создает человек, влияет на социальную, экономическую, культурную и даже биологическую жизнь. В 1980 года мечтали создать квантовый компьютер для увеличения вычислительных мощностей. Мечта вида. Открытия, которое сулило это изобретение, должны были предвосхитить новую эру. В 2018 году IBM запустил в продажу первый коммерческий квантовый компьютер, но этого уже никто не заметил. Новость обсуждали невероятно малое количество людей. Она просто утонула в том информационном изобилии, в котором мы сейчас существуем. Основным направлением исследований в последние годы стали нейронауки, алгоритмы, математические модели, искусственный интеллект, что в целом говорит о поиске возможности нормального функционирования в обогащенной информацией среде. В 1929 году открыли нейроны фон Экономо, которые встречаются только у высокосоциальных групп животных. Есть прямой коррелят размера группы и размера мозга, чем больше группа животных, тем больше у них размер мозга относительно тела. Неудивительно, что нейроны фон Экономо встречаются только у китообразных, слонов и приматов. Нейроны фон Экономо отвечают за передачу больших объемов информации в мозге.


пока А.Г. Лукашенко не запретил им общаться, посмотри на них

Данный вид нейронов есть нейронная адаптация в очень больших мозгах, позволяющая быстро обрабатывать и передавать информацию по очень специфическим проекциям, которая эволюционировала по отношению к новым социальным поведениям. Очевидное присутствие этих специализированных нейронов только у высокоинтеллектуальных млекопитающих может быть примером конвергентной эволюции. Новая информация всегда генерирует новые, качественно другие закономерности и взаимосвязи. Закономерности устанавливаются только на основе информации. Пример, примат бьет камнем по кости убитого буйвола. Один удар и кость разламывается на две части. Еще один удар и еще один разлом. Третий удар и еще несколько осколков. Закономерность ясна. Удар по кости и как минимум один новый осколок. Так ли приматообразные хороши в распознавании закономерностей? Множество половых актов и отложенные роды спустя девять месяцев.

Сколько потребовалось времени, чтобы связать эти два события? Долгое время роды вообще не связывали с половыми актами между мужчиной и женщиной. В большинстве культур и религий за рождение новой жизни отвечали боги. Точная дата открытия этой закономерности, к сожалению, так и не установлена. Однако стоит отметить, что до сих пор существуют закрытые общества охотников-собирателей, которые эти процессы не связывают, а за рождение в них отвечают особые ритуалы в исполнении шамана. Основной причиной детской смертности при родах до 1920 были грязные руки. Чистые руки и живой ребенок тоже пример неочевидной закономерности. Вот еще один пример закономерности, которая до 1930 года оставалась неявной. О чем речь? О группах крови. В 1930 году Ландштейнер получил за это открытие Нобелевскую премию. До этого момента знание о том, что переливать человеку можно ту группу крови, которая совпадает у донора с нуждающимся — было неясным. Подобных примеров тысячи. Стоит отметить, что поиск закономерностей то, чем вид занимается постоянно. Бизнесмен, который находит закономерность в поведении или потребности людей, а после зарабатывает на этой закономерности долгие годы. Серьезные научные исследования, которые позволяют прогнозировать изменение климата, миграцию людей, нахождение мест для добычи полезных ископаемых, цикличность комет, развитие эмбриона, эволюция вирусов и как верхушка, поведение нейронов в мозге. Конечно, можно все объяснить устройством вселенной, в которой мы живем, и вторым законом термодинамики о том, что энтропия постоянно возрастает, но этот уровень для практических целей не подходит. Следует выбрать более приближенный к жизни. Уровень биологии и информатики.

Что такое информация? Согласно распространённым представлениям, информация – это сведения независимо от формы их представления или решение проблемы неопределённости. В физике информация – это мера упорядоченности системы. В теории информации, определение этого термина следующее: информация – это данные, биты, факты или понятия, набор значений. Все эти понятия размыты и неточны, более того, я считаю, что немного ошибочны.

В доказательство этого выдвинем тезис — информация сама по себе бессмысленна. Что такое число “3”? Или что такое буква “А”? Символ без приписанного значения. Но что такое число “3” в графе группы крови? Это значение, которое спасет жизнь. Оно уже влияет на стратегию поведения. Пример, доведенный до абсурда, но не теряющий своей значимости. Дуглас Адамс написал “Путеводитель для путешествующих автостопом по галактике”. В этой книге, созданный квантовый компьютер должен был ответить на главный вопрос жизни и Вселенной. В чем смысл жизни и Вселенной? Ответ был получен спустя семь с половиной миллионов лет непрерывных вычислений. Компьютер заключил, многократно проверив значение на правильность, что ответ был “42”. Приведённые примеры дают понять, что информация без внешней среды, в которой она находится (контекста), ничего не значит. Число “2” может означать количество денежных единиц, больных эболой, счастливых детей или быть показателем эрудированности человека в каком-то вопросе. Для дальнейшего доказательства перейдем в мир биологии: листья растений часто имеют форму полукруга и сперва как бы поднимаются вверх, расширяясь, но после определенной точки преломления, тянутся вниз, сужаясь. В ДНК, как в главном носители информации или значений, нет гена, который кодировал бы их такую тягу вниз, после определенной точки. То, что лист растения тянется вниз, проделки гравитации.

Сама по себе ДНК, что у растений, что у млекопитающих, что уже у упомянутого Homo Sapiens, несет мало информации, если вообще это делает. ДНК — это набор значений в определенной среде. ДНК, в основном, несет факторы транскрипции, то что должно быть активировано определенной внешней средой. Помести ДНК растения/человека в среду с другой атмосферой или гравитацией, и на выходе получится другой продукт. Поэтому передавать инопланетным формам жизни нашу ДНК для исследовательских целей — довольно глупое занятие. Вполне возможно, в их среде, ДНК человека вырастет в нечто, что более ужасающе, чем двуногий прямоходящий примат с оттопыренным большим пальцем и идеями о равенстве. Информация — это значения/данные/биты/материя в любой форме и в непрерывной связи с окружающей средой, системой или контекстом. Информация не существует без факторов внешней среды, системы или контекста. Только в неразрывной связке с этими условиями, информация способна передавать смыслы. Говоря языком математики или биологии, информация не существует без внешней среды или систем, на переменные которых она оказывает влияние. Информация всегда является придатком тех обстоятельств, в которых она перемещается. В этой статье будут рассмотрены основные идеи теории информации. Труды интеллектуальной деятельности Клода Шеннона, Ричарда Фейнмана.

Отличительной особенностью вида является способность создавать абстракции и выстраивать закономерности. Представлять одни явления через другие. Мы кодируем. Фотоны на сетчатке глаза создают картинки, колебания воздуха преобразовываются в звуки. Определенный звук мы связываем с определенной картинкой. Химический элемент в воздухе, своими рецепторами в носу, мы интерпретируем, как запах. Через рисунки, картинки, иероглифы и звуки мы можем связывать события и передавать информацию.


вот он собственно говоря и кодирует твою реальность

Подобное кодирование и абстракции не стоит недооценивать, достаточно только вспомнить, насколько сильно оно влияет на людей. Кодировки способны одержать верх над биологическими программами, человек ради идеи (картинки в голове, которая определяет стратегию поведения) отказывается от передачи копий своих генов дальше. Или вспомнить всю мощь физических формул, позволивших отправить представителя вида в космос. Химические уравнения, которые помогают лечить людей и так далее. Более того, мы можем кодировать то, что уже закодировано. Простейшим примером может послужить перевод с одного языка на другой. Один код представляется в форме другого. Простота трансформации, как главный фактор успешности этого процесса, позволяет делать его бесконечным. Можно перевести выражение с японского на русский, с русского на испанский, с испанского на двоичную систему, с нее в азбуку Морзе, после представить это в виде шрифта Брайля, потом в форме компьютерного кода, а после в виде электрических импульсов пустить это прямо в мозг, где он декодирует сообщение. Недавно сделали обратный процесс и декодировали активность мозга в речь.


зафигачили в картинку выше электроды и считали всю твою уникальность

В период от сорока до двадцати тысяч лет назад первобытные люди начали активно кодировать информацию в виде речевых или жестовых кодов, наскальных живописей. Современные люди, наблюдая первые наскальные рисунки, пытаются определить (декодировать) их смысл, поиск смыслов — это еще одна отличительная черта вида. Воссоздавая контекст по определённым маркерам или остаткам информации, современные антропологи пытаются понять быт первобытных людей. Квинтэссенция процесса кодирования воплотилась в виде письменности. Письменность, разрешила проблему потери информации при ее передаче не только в пространстве, но и во времени. Иероглифы цифр позволяют кодировать вычисления, слова предметы и т.д. Однако, если с точностью проблема решена более-менее эффективно, если конечно же оба участника процесса коммуникации используют одинаковые условные соглашения на трактовку и процесс декодирования одних и тех же символов (иероглифов), то со временем и скоростью передачи печатная письменность потерпела неудачу. Для решения проблемы скорости были изобретены системы радио и телекоммуникаций. Ключевым этапом развития передачи информации можно считать две идеи. Первая — цифровые каналы связи, а вторая — развитие математического аппарата. Цифровые каналы связи решили проблему в скорости передачи информации, а математический аппарат в его точности.

Любой канал имеет определенный уровень шумов и помех, благодаря которым информация приходит с помехами (набор значений и иероглифов искажен, теряется контекст) или вообще не приходит. По мере развития технологий, количество шумов в цифровых каналах связи уменьшалось, но никогда не сводилось к нулю. По мере увеличения расстояния вообще увеличивалось. Ключевая проблема, которую необходимо решить при потере информации в цифровых каналах связи, была обозначена и решена Клодом Шенноном в 1948 году, а также он придумал термин бит. Звучит она следующим образом: — “Пусть источник сообщений имеет энтропию (Н) на одну секунду, а (С) — пропускная способность канала. Если H<С или Н=С, то возможно такое кодирование информации, при котором данные источника будут переданы через канал со сколь угодно малым количеством ошибок”.


а тебя играть в эту игру не позвали

Данная формулировка проблемы является причиной бурного развития теории информации. Основные проблемы, которые она решает и пробует решить, сводятся к тому, что цифровые каналы, как уже упоминалось выше, имеют шумы. Или сформулируем следующим образом – “ отсутствует абсолютная надежность канала в передачи информации». Т.е. информация может теряться, искажаться, наполняться ошибками из-за воздействия окружающей среды на канал передачи информации. Клод Шеннон, выдвинул ряд тезисов, из которых следует, что возможность передачи информации без потерь и изменений в ней, т.е. с абсолютной точностью, существует в большинстве каналов с шумами. По сути он разрешил Homo Sapiens не тратить усилия на улучшение каналов коммуникации. Вместо этого он предложил разрабатывать более эффективные схемы кодирования и декодирования информации. Представлять информацию в виде 0 и 1. Идею можно расширить до математических абстракций или языкового кодирования. Продемонстрировать эффективность идеи можно на примере. Ученый наблюдает за поведением кварков на адронном коллайдере, свои данные он заносит в таблицу и анализирует, выводит закономерность в виде формул, формулирует основные тенденции в виде уравнений или записывает в виде математических моделей, факторы влияющие на поведение кварков. Ему необходимо передать эти данные без потерь. Перед ним встает ряд вопросов. Цифровой канал связи использовать или передать через своего помощника или позвонить и лично все рассказать? Времени остается критически мало, а передать информацию необходимо срочно, поэтому электронная почта отметается. Помощник — абсолютно ненадежный канал связи с вероятностью возникновения шумов, близкой к бесконечности. В качестве канала связи он выбирает позвонить.

Насколько точно он сможет воспроизвести данные таблицы? Если в таблице одна строка и два столбца, то довольно точно. А если там десять тысяч строк и пятьдесят столбцов? Вместо этого он передает закономерность, закодированную в виде формулы. Если бы он был в ситуации, когда может передать таблицу без потерь и был уверен, что другой участник процесса коммуникации придет к тем же закономерностям, а также время не являлось бы фактором, оказывающим влияние, то вопрос был бы лишен смысла. Однако, выведенная в качестве формулы закономерность, уменьшает количество времени на декодирование, меньше подвержена трансформациям и шумам при передаче информации. Примеров подобных кодировок по ходу будет приведено многократное количество раз. Каналом связи можно считать диск, человека, бумагу, спутниковую антенну, телефон, кабель, по которому протекают сигналы. Кодировка не только устраняет проблему потери информации, но и проблему ее объемов. С помощью кодирования можно сокращать размерность, уменьшать количество информации. После прочтения книги, вероятность пересказать книгу без потерь информации стремится к нулю, при отсутствии синдрома саванта. Закодировав (сформулировав) основную идею книги в форме определенного высказывания, мы представляем ее краткий обзор. Основная задача кодирования заключается в укороченном формулировании исходного сигнала без потери информации для его передачи на большое расстояние вне времени другому участнику коммуникации, таким образом, что участник смог его эффективно декодировать. Веб-страница, формула, уравнение, текстовый файл, цифровое изображение, оцифрованная музыка, видеоизображение — это все яркие примеры кодировок.

Проблемы точности передачи, расстояния, времени, процесса кодирования были решены в той или иной степени и это позволило создавать информации в разы больше, чем человек способен воспринять, находить закономерности, которые будут еще долгое время незамеченными. Появился ряд других проблем. Где хранить такой объем информации? Как хранить? Современное кодирование и математический аппарат, как оказалось, не совсем решает проблемы с хранением. Есть предел укорачивания информации и предел ее кодировки, после которой декодировать значения обратно не представляется возможным. Как было уже упомянуто выше, набор значений без контекста или внешней среды, информации уже не несет. Можно однако кодировать по отдельности информацию о внешней среде и наборе значений, а после совмещать в форме определенных индексов и декодировать сами индексы, однако первоначальные значения о наборе значений и внешней среды, все равно нужно где-то хранить. Были предложены замечательные идеи, которые и сейчас используются повсеместно, но они будут рассмотрены в другой статье.

Забегая вперед, можно привести пример того, что не обязательно описывать всю внешнюю среду, можно формулировать только условия ее существования в виде законов и формул. Что такое наука? Наука – это высшая степень мимикрии над природой. Научные достижения – это абстрактное воплощение реально существующих явлений. Одно из решений проблемы хранения информации было описано в очаровательной статье Ричарда Фейнмана “Там внизу полным-полно места: приглашение в новый мир физики”. Эта статья часто считается тем трудом, который положил начало развитию нанотехнологиям. В ней, физик предлагает обратить внимание на удивительные особенности биологических систем, как хранилищ информации. В миниатюрных и крошечных системах заключено невероятно много данных о поведении — то, как они хранят и используют информацию, ничего кроме восхищения вызвать не может. Если говорить о том, насколько много могут хранить информации биологические системы, то журнал Nature произвел оценку, что всю информацию, значения, данные и закономерности мира, можно записать в ДНК-хранилище весом до одного килограмма. Вот и весь вклад во вселенную, один килограмм материи. ДНК — чрезвычайно эффективная структура по части хранения информации, которая позволяет хранить и использовать наборы значений в огромных объемах. Если кому-то интересно, то вот статья, которая рассказывает, как записать в ДНК-хранилище фотографии котов и вообще любую информацию, даже песни Скриптонита (крайне глупое использование ДНК).


Здесь закодировано то, что ты слушаешь херню

Фейнман, обращает внимание на то, какое количество информации закодировано в биологических системах, что в процессе существования, они не только кодируют информацию, но и меняют структуру материи на основе этого. Если до этого момента все предложенные идеи основывались только на кодировки набора значений или информации, как таковой, то после этой статьи вопрос стоял уже в кодировке внешней среды в пределах отдельных молекул. Кодировать и изменять материю на уровне атомов, заключать в них информацию и так далее. Например, он предлагает создавать соединительные провода диаметром в несколько атомов. Это в свою очередь позволит увеличить количество составных частей ЭВМ в миллионы раз, подобное увеличение элементов качественно улучшит вычислительные мощности будущих разумных машин. Фейнман, как создатель квантовой электродинамики и человек, участвовавший в разработке атомной бомбы, прекрасно понимал, что кодировка материи не является чем-то фантастическим, а представляется нормальным процессом в наблюдаемой реальности.

Он делает акцент на том, что физика не запрещает создавать объекты атом за атомом. В статье, он прибегает к сравнению деятельности человека и машины, обращая внимание на тот факт, что любой представитель вида без труда распознает лица людей, в отличие от ЭВМ, для которых в то время это была задача за пределами вычислительных мощностей. Задает ряд важных вопросов от “что мешает создать сверхмалую копию чего-либо?” до “отличие ЭВМ от человеческого мозга только в количестве составных элементов?”, так же он описывает механизмы и основные проблемы при создании чего-либо атомного размера.

Современники оценили количество нейронов мозга в примерно 86 миллиардов, естественно, что ни одна ЭВМ и тогда и сейчас, к этому значению не приблизилась, как оказалось это и не нужно. Однако, работа Ричарда Фейнмана начала двигать идею о информации в сторону уменьшения, туда где много места. Статья вышла в 1960 году, уже после появления работы Алана Тьюринга “Вычислительные машины и разум” одной из самых цитируемых работ вида. Поэтому сравнение деятельности человека и ЭВМ было трендом, который отразился и в статье Ричарда Фейнмана.

Благодаря непосредственному вкладу физика, стоимость хранения данных с каждым годом падает, облачные технологии развиваются сумасшедшими темпами, создан квантовый компьютер, мы записываем данные в ДНК-хранилища и занимаемся генной инженерией, что еще раз доказывает, материю можно изменять и кодировать. В следующей статье поговорим о хаосе, энтропии, квантовых компьютерах, пауках, муравьях, скрытых моделях Маркова и теории категорий. Будет больше математики, панк рока и днк. Продолжение вот в этой статье.

Что такое информация с точки зрения физики? / Habr

Добрый день, земляне!

В случае каких-либо недоразумений/недопониманий, прошу считать этот пост чисто пятничным флеймом. Сразу уточню, что в этом посте нет ответа на вопрос. Я сам его ищу – поисковики не помогают – и тут лишь озвучиваю сам вопрос. Надеюсь на помощь зала.

Есть ли какие-то исследования/теории/гипотезы/whatever на тему того, чем является информация с точки зрения фундаментальной физики? С математической точки зрения тут всё ясно – есть биты, их комбинации, алгоритмы по хранению и изменению этих битов и т.д. – по-сути, вся IT-сфера как раз этим и занимается.

А вот рассматривает ли физика само понятие «информация» с какой-либо точки зрения?

Для синхронизации понимания уточню, что я имею в виду слово «информация» как «данные», «смысл», а не просто как набор битов.

С точки зрения физики – информации об «информации» крайне мало, простите за каламбур.

Из того, что удаётся найти – есть некая связь между информацией и энтропией (чем больше информации – тем меньше энтропия и наоборот). Но даже эта связь чисто количественная и ничего не знает о «составе» информации.

Ещё есть парадокс Хокинга, который как раз и говорит об исчезновении «информации» в чёрных дырах.

Было бы очень интересно найти какие-либо размышления на тему связи информации и фундаментальной физики. Сейчас у меня в голове «информация» – это некое абстрактное понятие. Действительно ли оно только лишь абстрактно, или, всё-таки, есть некая физическая основа?

Говорить об информации как о состоянии физической системы тоже не совсем верно – ведь одна и та же информация может храниться в совершенно различных физических системах и соответствовать совершенно различным состояниям.

Например, простой текст: «Hello, World!». Он может быть написан на бумаге, может быть запомнен, произнесён, сохранён на жёсткий диск, на CD, на SSD, может быть выгравирован где-либо и т.д. и т.п. Всё это – совершенно разные физические системы в совершенно разных состояниях. Однако, сама информация остаётся неизменной.

Так что же такое «информация» с точки зрения физики?

ИНФОРМАЦИЯ это что такое ИНФОРМАЦИЯ: определение — Философия.НЭС

Информация

псевдонаучная категория, отражающая сам факт наполненности Природы смыслами. По мере увеличения знания понятие информации отмирает в сознании Человека, уступая место понятию смысловой информации.

Оцените определение:

Источник: Краткий критериологический словарь

ИНФОРМАЦИЯ

1) в естествознании и математике — мера упорядоченности, организованности объектов, процессов, систем; 2) в гуманитарных науках — совокупность сведений об объектах, явлениях, процессах, их свойствах и отношениях.

Оцените определение:

Источник: Философия науки: Словарь основных терминов

Информация

от лат. informatio — разъяснение, изложение) — совокупность сведений о чем-либо, содержащаяся в сообщении; совокупность характеристик, представляющих некоторый объект в его качественной определенности; упорядочивающее, организующее начало, противоположное энтропии.

Оцените определение:

Источник: Человек и общество. (Культурология) Словарь-справочник

Информация

от лат. ?nf?rm?tio — разъяснение, изложение). Одно из значений термина — сведения, сообщаемые различными способами: устными, письменными, техническими, изобразительными и т.д., а также процесс передачи этих сведений. К середине ХХ в. «информация» становится одним из центральных понятий кибернетики и приобретает общенаучное значение; появляется специальная отрасль знаний — информатика.

Оцените определение:

Источник: История и философия науки

Информация

1) производимое в рамках субъект-объектного отношения отражение объекта субъектом, которое принимается, перерабатывается, сохраняется, воспроизводится и используется в процессах управления; 2) смыслосодержащая субстанция, передаваемая по каналам управления; 3) ограниченное разнообразие, тем или иным образом связанное в каждой из структур объективного мира; 4) все содержащееся в мире разнообразие.

Оцените определение:

ИНФОРМАЦИЯ — это… Что такое ИНФОРМАЦИЯ?

        (informatio — ознакомление, представление — лат.)

        1) любые сведения, данные, сообщения, передаваемые посредством сигналов; 2) уменьшение неопределенности в результате передачи сведений, данных, сообщений — в этом качестве И. противопоставляется энтропии.

        До сер. 20 в. понятие И. относилось только к сведениям и сообщениям, передаваемым человеком с помощью знаковых средств, способность к передаче И. рассматривалась как отличит, характеристика человека — разумного вида, однако с развитием науки и техники понятие И. стало применяться и для характеристики процессов обмена сигналами в живой природе (сигнальное поведение у животных и растений, генетич. передача данных в клетках и т.д.), а также в среде автоматизированных средств.         Интерес к изучению информ. процессов, к колич. и кач. оценке И., возникший в нач. 20 в., был обусловлен и развитием логико-математич., логико-семантич. и семиотич. исследований, привлекших внимание к проблемам представленности знаков и значений, и значит. увеличением объемов передаваемой И., и развитием техн. средств ее передачи (телеграф, телефон, радиосвязь, телевидение), происходившим в рамках модернизационных процессов. В пер. трети 20 в. исследования И. преследовали прежде всего цели уточнения процессов ее формализации (означения) и оптимизации условий ее передачи. Однако уже к сер. 20 в. появились первые теор. исследования, сформировавшие в дальнейшем ряд теорий И. — вероятностную, комбинаторную, алгоритмич. и др. Эти теории, разрабатывавшиеся средствами математики, позволили осуществить математич. моделирование процесса передачи И., выявить осн. элементы этого процесса (в классич. схеме, предложенной К. Шенноном, обмен И. включает шесть составляющих: источник — передатчик — канал передачи — приемник — адресат — источник помех), выявить принципы колич. оценки И. (пропускной способности) и степени ее искажения (помехоустойчивости).         Разработка этих теорий привела к появлению информатики как науки, предмет к-рой — И. и способы ее передачи. Однако решающее воздействие на развитие исследований в области И. оказало появление автоматизир. средств обработки И. (ЭВМ) и кибернетики — науки о связи, управлении и информ. обработке. Развитие машинной обработки И. стимулировало исследования в области формализации и алгоритмизации (сведения к операциям с элементарными высказываниями) И. и появление развернутых теорий алгоритмического синтаксиса, а также множества языков алгоритмизации и программирования. Попытки алгоритмизации семантич. процессов — означения и понимания — хотя и были далеко не столь успешны, однако оказали значит, влияние на развитие англ. лингвистич. философии и лингвистич. семантики, а также трансформационной грамматики в русле поиска универсального языка записи семантич. характеристик.

        В кибернетике И. рассматривается в более узком понимании — не как любые сведения, а только как сведения, ведущие к уменьшению неопределенности (снижению количества возможных альтернативных вариантов) в ситуации общения, сведения, направленные на управление и согласование. В соответствии с таким подходом к И. в рамках общих теорий управления получили развитие исследования прагматич. аспектов И.

        оценка И. с т.зр. ее актуальности (достаточная, избыточная, излишняя И.), ценности, полезности, адекватности и т.д. В рамках кибернетики стал возможен синтез математич. моделей и теорий И. с теориями социального взаимодействия и коммуникации, существенно обогативший научные представления о коммуникационных и трансляционных процессах в об-ве. На стыке информатики, кибернетики и антропологии получили также развитие нейроинформ. и нейролингвистич. исследования, рассматривавшие процессы передачи И. на уровне высшей нервной деятельности.         Применительно к социокультурному материалу математич. модели И. претерпели существ, трансформацию. Было установлено, что на информ. процессы в человеч. сооб-ве помимо шести осн. элементов существенно влияют также барьеры и фильтры: внутренние (индивидуальные психич. особенности участников информ. обмена, их опыт и компетентность), и внешние (социальные и культурные нормы, ценности, коллективные представления), значительно трансформирующие, искажающие И., и при этом они не всегда носят рац. характер. Колич. оценки этих искажающих влияний (помех) совершенно недостаточно, поскольку индивидуальный характер и сложность природы этих влияний делают принципиально необходимым их содержат. кач. анализ и определение механизмов их воздействия на И. Информ. процессы в человеч. сооб-ве далеко не всегда можно интерпретировать как ведущие к снижению неопределенности ситуации, и неактуальная информация (шум) имеет здесь не меньшее значение, чем актуальная. В соответствии с этим, помимо актуальности для социально и культурно значимой И. важны адекватность, достоверность, полнота, новизна, убедительность, выразительность, воспринимаемость и т.д. Понимание того, что информ. процессы являются важной составляющей любой культурной общности (истор. и современной), и применение к их изучению методов теории И. математич. моделирования (частично осуществленное структурализмом и европ. социальной антропологией) существенно обогатило теоретико-методол. багаж социокультурных наук. Функциональный подход к И. получил дальнейшее развитие в теории коммуникации. В рамках семиотики изучение И. осуществляется в основном в ее семантич. аспектах (И. как пространство смыслов и значений).         В настоящее время изучение И. в социокультурных науках осуществляется по двум направлениям: 1) изучение информ. процессов (информ. культуры) разл. культурных общностей (гос-в, этносов, цивилизаций и т.д.); 2) исследования локальных информ. процессов в разл. видах деятельности (менеджмент, маркетинг, реклама, социальное участие, полит, деятельность и т.д.). Исследования такого рода, как правило, имеют прикладную направленность и наиболее широко привлекают достижения информатики и кибернетики. Такие исследования посвящены прежде всего совр. проблемам информ. обмена.         Прогрессирующая активизация и глобализаця информ. процессов (средства массовой информации, массовая культура, глобальные информ. сети и т.д.) в культуре на протяжении всего 20 в. определили признание исключит, важности информ. процессов для развития совр. об-ва, и сделали И. предметом не только научного, но и философского рассмотрения. И. интерпретировалась в культурфилософии, как правило, в рамках общих представлений того или иного направления (для неотомизма характерно представление И. как трансцендентального феномена; для экзистенциализма и феноменологии — ориентация на ее субъективистскую трактовку; для филос. герменевтики — стремление обусловить информ. процессы культурным опытом, для постпозитивизма — акцент на некогнитивные аспекты И.). Совр. ситуация нередко характеризуется культур-философией как “информ. взрыв”, “информ. бум”, обработка И. рассматривается как осн. вид деятельности в формирующемся “постиндустриальном об-ве”, предпринимаются попытки ее филос. истолкования и предсказания возможных путей развития “информ. цивилизации”.

Лит.: Шеннон К.Э. Работы по теории информации и кибернетики. М., 1963; ПирсДж. Символы, сигналы, шумы. Закономерности и процессы передачи информации. М., 1967; Винер Н. Кибернетика или управление и связь в животном и машине. М., 1968; Гришкин И.И. Понятие информации. М., 1973; Афанасьев В.Г. Социальная информация и управление об-вом. М., 1975; Стратонович Р.Л. Теория информации. М., 1975; Дубровский Д.И. Информация, сознание, мозг. М., 1980; Страссман П.А. Информация в век электроники: Пробл. управления. М., 1987; Кин Дж. Средства массовой информации и демократия. М., 1994; Брой М. Информатика. Основополагающее введение. Ч. 1-3. М., 1996; Федотова Л.Н. Массовая информация: Стратегия производства и тактика потребления. М., 1996; Иванов А.М., Козлов В.И. Информация. Информатика. Компьютер. Самара,1996.

А. Г. Шейкин

Культурология. XX век. Энциклопедия. 1998.

Что такое информация, и какую роль она играет в современном мире :: SYL.ru

Что такое информация?

В современном обществе информация давно стала чуть ли не самым дорогим товаром, не зря же говорят, что тот, кто ею владеет, владеет миром. Однако, несмотря на популярность этого понятия, нет четкого представления о том, что такое информация —

что такое информация настолько широкую область знаний она охватывает. В общих случаях применяют следующую формулировку: совокупность каких-либо данных, записанных на материальном носителе, хранимых и передаваемых в пространстве и времени. Для определения понятия «информация» в более узком смысле нужно учитывать контекст — очевидно, что журналист или биолог вкладывает в данный термин совсем иной смысл, нежели физик или программист.

Формы представления информации

Несмотря на множество разработанных классификаций, информацию можно разделить на два вида: аналоговую и дискретную, в любом другом состоянии в нашем материальном мире она существовать не может. В чем различие между ними? Аналоговая информация изменяется непрерывно, ее можно представить в виде мелодии, речи, тепловых ощущений и т. д. Дискретная информация (или цифровая), соответственно, меняется скачкообразно. Она, скорее, тяготеет к символьному представлению: музыкальные ноты, буквы, машинный код. Последовательность нулей и единиц — вот что такое информация в представлении компьютерщика.

Роль информации в жизни человека

Окружающий мир люди воспринимают органами чувств, анализируя поступающие извне звуковые, визуальные, вкусовые, тактильные сигналы. Без них

информация и ее свойствачеловек не смог бы составить реальную картину происходящего. Кроме того, как многие наверняка помнят из школьного курса, в истории человечества было четыре качественных скачка в развитии, каждый из которых кардинально менял облик человечества и его способ мышления и был связан с изобретением определенного способа хранения и передачи информации:
  • изобретение письменности;
  • изобретение книгопечатания;
  • открытие способов применения электричества, что послужило основой для изобретения радио и телеграфа;
  • изобретение электронно-вычислительных машин (ЭВМ) и их последующая эволюция.

Информация и ее свойства

Совокупность сведений, как и любое явление, имеет ряд характеристик. Поэтому сейчас от рассмотрения того, что такое информация, мы перейдем к изучению ее

дискретная информация
качеств. Информатика (наука, занимающаяся проблемами получения, хранения, передачи и практической реализации информации) выделяет следующие ее свойства:

1. Объективность — отражение реальной картины происходящего в окружающем мире.

2. Достоверность — информация должна содержать в себе реальное положение дел. Достоверность отличается от объективности тем, что она может быть и субъективной, например, отражать истинные мысли человека, его душевное состояние, мировоззрение.

3. Точность — максимальная близость к настоящему состоянию объекта или явления.

4. Полнота — информации должно быть достаточно для того, чтобы на ее основании принять верное решение.

5. Актуальность — свежесть сведений, их востребованнность в современных условиях.

6. Доступность — подразумевает под собой не только легкость получения данных, но и их понятность.

Leave a comment