50 лет НИТИ

Предоставлено рекламодателем.

   
   

Я, конечно, могу рассказать, как здорово работает Научно-исследовательский технологический институт, но для большинства читателей в этом не будет ничего нового. Гораздо интереснее будет, если я расскажу о некоторых идеях, которые разрабатываются в нашей некоммерческой научной лаборатории. Об этом ещё никто ничего не знает.

Одна из тем, которыми мы занимаемся, — это исследование методов моделирования работы мозга. И даже книгу на эту тему написали. А если исследовать мозг, то надо понимать, что такое информация — ведь это та самая субстанция, которую постоянно принимает, обрабатывает и генерирует мозг.

С первого взгляда совершенно очевидно, что такое информация. Но если задуматься над этим понятием более глубоко, а тем более если попытаться определить, что это такое, то скорее всего получится определение типа: информация — это информация!

Всерьёз теорией информации математики и физики занялись в тридцатые годы прошлого века в связи с необходимостью вычисления объёмов информации, которые можно передать с помощью радиосигналов. Американские учёные Хартли, Винер и Шеннон разработали математическую теорию информации, в основе которой лежала идея о родстве понятий «вероятность» и «информация». Они вывели формулы, из которых следовало, что чем ниже вероятность появления какого-то сигнала, тем больше в нем содержится информации. На сегодня взгляды Шеннона на информацию являются наиболее широко признанными. Однако уже сейчас ясно, что в определении Шеннона информация отрывается от смысла информации. А информация без смысла — это что-то не очень понятное. Поясним на примере. Пусть ребёнок на песке из камушков выложил какой-то узор. Чем сильнее узор отличается от чисто случайного, тем больше (по Шеннону) в нём должно содержаться информации. Но ребёнок в узор не вкладывал никакого смысла, он просто играл! По-видимому, Шеннон вывел не формулу содержания информации, а формулу информационной емкости сигнала. Поясню на примере. Есть коньяк и есть бочка для коньяка. Есть формула вычисления объема бочки. Но это не формула вычисления количества и качества коньяка в бочке! По нашему мнению, Шеннон вывел формулу для определения информационной ёмкости некоторых видов носителей информации. Но разных носителей информации, по-видимому, может быть много. На наш взгляд, это первый уровень понимания того, что из себя представляет информация, и он начинается именно с представления о «материальном носителе информации». Сейчас самыми популярными носителями информации — являются флэшки. Какая информационная ёмкость у флэшки, знает каждый, кто её покупает. А сколько в ней реально содержится информации, можно узнать, только подключив её к компьютеру.

Здесь мы выходим на второй уровень представления о том, что такое информация. С одной стороны, есть носитель информации (флэшка, Шенноновский сигнал и др.), а с другой стороны, необходимо какое-то материальное устройство, которое может принять и расшифровать запись с носителя информации. Назовём это устройство условно — дешифратор. Для флэшки это компьютер. А для генома, например, это так называемая информационная РНК, которая буквально ползает вдоль спирали генома, считывает информацию и копирует геном, обеспечивая тем самым деление клеток и жизнь вообще. Без этой РНК (дешифратор!) геном — просто огромная молекула, непонятно зачем нужная. Дешифратором является и человек, который читает книгу. Без человека, знающего язык, буквы и синтаксис, книга — это просто набор страниц с какими-то значками.

Таким образом, на втором уровне, объединив носитель информации и дешифратор, мы получаем уже нечто похожее на информацию. Как минимум мы получаем данные (базы данных!), уже имеющие какой-то смысл.

   
   

Однако вторым уровнем наше путешествие к вершинам информации не исчерпывается. Всем приходилось сталкиваться с вредным явлением под названием «спам». Текста много, а информации ноль, многословие. Пустая болтовня. Как определить, сколько же в тексте после обработки носителя дешифратором реально содержится информации?

И здесь мы выходим на третий уровень представлений об информации. Наш соотечественник Колмогоров в пятидесятые годы прошлого века разработал так называемую теорию сложности. Суть идеи в том, что сложность какого-либо явления определяется минимальной длиной текста, который описывает данное явление. Аналогично, реальная информация, содержащаяся в любом тексте, будет также определяться длиной, сжатой до предела версией этого текста.

Далее история оказалась ещё интереснее. Колмогоров доказал, что формирование кратчайшей записи текста является невычислимой задачей. Так называются задачи, которые не сводятся к алгоритмам. То есть это задачи, которые принципиально не могут быть решены компьютером. Решать такие задачи могут только люди, наделённые так называемой интуицией. В итоге получилось, что если два первых уровня информации вполне могут обойтись без людей, то третий уровень без человека обойтись не может. Получается, что пока только человек может оценить, а была ли в этом носителе информации и его дешифраторе хоть какая-то полезная информация или это сплошной спам.

Именно поэтому мы ориентированы на умных покупателей, способных отличить рекламный спам от реального содержания и выбрать в качестве партнера НИТИ!

Смотрите также: