Рабочая модель двигателя Стирлинга с бесплатной доставкой по всей России. Узнать больше..

Об информационно-энтропийной модели сознания

Популярный раздел для новых идей и теорий мироздания.
Теории доказывающие существование Бога или опровергающие. Теории происхождения Вселенной, Земли, Человека. И многое другое…
Правила форума
Научный форум "Философия"

Об информационно-энтропийной модели сознания

Комментарий теории:#1  Сообщение Валентин Попов » 11 окт 2012, 00:34

ВВЕДЕНИЕ
Проблема, подлежащая рассмотрению в настоящей статье, восходит к соображениям Аристотеля относительно сущности критериев знания — истины и лжи. Согласно оценке Аристотеля, «истина — это когда мы говорим о том, что есть, что оно есть, а ложь — это когда о том, чего нет, говорят, что оно есть, либо когда о том, что есть, говорят, что его нет». Как разработчик теории выводного знания (дедуктивного метода, в более широком плане), Стагирит стремился создать такой инструментарий логики, который, оставаясь интеллектуальной собственностью субъекта, адекватно отражал бы независимый от него окружающий мир, а это может быть достигнуто лишь особой организацией мыслительного процесса. Впоследствии такая организация мышления была названа логическим формализмом, а различные схемы этого процесса в применении к конкретным моделям — формальными теориями.

Аристотелевская теория знания опирается на метафизику, также базирующуюся на идее парных противоположностей, и в этом плане его эпистемология и метафизика дополняют одна другую. Представление о том, «чего нет в данном месте и в данное время» может быть создано в когнитивной сфере индивидуального сознания лишь на основе того, «что есть здесь и теперь», т. е. для формально-логического мышления знание выступает первичным относительно незнания. Таким образом, проецируя главную проблему аристотелевской формальной логики — проблему истины и лжи — на современную проблему сознания, можно, перефразируя известный философско-материалистический тезис — «бытие определяет сознание»,— дополнить его новым содержанием: знание определяет сознание. Причем знание в двух его категориальных ипостасях — в форме истины и в форме лжи, и от того, в каком соотношении находятся эти составляющие знания, зависит сознание субъекта.

Возвращаясь по спирали познания назад и опираясь на достижения современных информационных технологий, мы попытаемся с новых позиций взглянуть на сущность сознания, основывающегося на сопоставлении критериев знания — истины и лжи. И как мы покажем ниже, эти критерии в информатике, которая есть не что иное, как техника передачи знаний, близки по своему содержанию к понятиям информации и энтропии.

ИСТИНА И ЛОЖЬ В ФОРМАЛЬНОЙ ЛОГИКЕ.
Древнегреческие философы открыли способность сознания, называемую нынче рефлексией, и это следует считать открытием главной симметрии природы в сфере сознания — принципа сохранения информации, проявленного в логике субъективного познавательного процесса как закон тождества. Когнитивная сущность первого начала логики состоит в том, что прежде чем установить какое-либо отношение между предметами, сначала необходимо закрепить в сознании субъекта отношение тождества вещи самой себе, выражаемой формулой: А=А, и этой логической операции сознанию предшествует отношение к собственному Я. Таким образом, с позиции субъективного сознания, рефлексия есть основа самоидентификации индивида как вещи бытия, а декартовская максима «Cogito ergo sum» — одна из релевантных версий этого положения в Новое время.

Что есть истина с позиции логического мышления? За ответом на этот вопрос обратимся к философу Канту. «Признание чего-то истинным имеет место в нашем рассудке и может иметь объективные основания, но требует также субъективных причин в душе того, кто высказывает суждение. Если суждение значимо для каждого, кто только обладает разумом, то оно имеет объективно достаточное основание, и тогда признание истинности его называется убеждением» [1]. Какой форой суждений мы выражаем свое убеждение? Несомненно, утвердительной: S есть Р.
Итак, все утвердительные суждения, высказываемые субъектом, но с непременной опорой на достаточные основания эмпирического либо теоретического характера, являются истинными, а их отрицания, следовательно, — ложными [2]. Такой подход к установлению истинностных оценок знания автоматически исключает создание парадоксов в формальных теориях, так как синтаксис и семантика в формальном построении по определению неотличимы.

Необходимым и достаточным исходным материалом для любых когнитивных моделей выступает реальный мир, т. е. он играет роль объекта знания, но процесс познания, опирающийся на чувственные данные или даже измерения, может содержать в себе ошибки. Более того, в каждый конкретный момент исследуемый мир доступен не весь целиком, а в виде текущего фрагмента, который находится в это время в фокусе процесса восприятия или измерения, и при этом исследуемый фрагмент мира представляет собой сочетание разных уровней, свойств и отношений. Субъект, поэтому, должен располагать логическим инструментом, позволяющим ему дезавуировать исчерпавшую себя относительную истину, которая была представлена утвердительным суждением. Таким логическим инструментом может быть только равное по объему, но противоположное по смыслу отрицательное суждение.

Истина и ложь в формальной логике — это противоположные стороны знания, семантика которого поддерживается одним и тем же смысловым контекстом. Например, утвердительное суждение: «Волга впадает в Черное море», которое синтаксически (формально) выступает истинным, но содержательно (семантически) является ошибочным, должно быть дезавуировано отрицательным суждением «Волга не впадает в Черное море», которое не обязательно должно произноситься вслух, а может только подразумеваться. Только после этого открывается путь к установлению географической истины: «Волга впадает в Каспийское море». В противном случае, если не отменить первоначального суждения, наступит формально-логическое противоречие.

ФИЗИЧЕСКИЕ СРЕДСТВА КОММУНИКАЦИИ.
Кратко остановимся на проблеме передачи знаний, поскольку существование сознания без коммуникации столь же невозможно, как жизнь мыслящего существа без внешней среды. Достаточно ясное представление о коммуникативной функции сознания могут дать некоторые физиологические факты. Например, основываясь на данных работы [3], дадим пояснение понятиям «сигнал» и «сообщение» и установим когнитивное отношение между ними.
Представим себе квадратную плоскость, составленную из 10 х 10 черных и белых элементов, которые расположены горизонтально и вертикально, и в каждом отдельном случае могут быть либо черными, либо белыми, но расположение их упорядочено не в шахматном порядке, а устроим с помощью метания монеты. Согласно теории вероятностей, из ста метаний монеты примерно половина (например, 56) окажутся выпавшими гербом, которому поставим в соответствие черный цвет, а тогда остальные квадраты (44), соответствующие выпадению решки, будут белыми. Белые элементы посылают в наши глаза больше света, чем черные, и поэтому мы по-разному воспринимаем белый и черный цвет. Когда мы рассматриваем черно-белую картинку, она проецируется через хрусталик на сетчатку глаза, в которой расположены светочувствительные элементы (рецепторы).
Теперь мы можем описать получившуюся при метании монеты картинку, пользуясь физическими понятиями: а) распределение черных и белых элементов на плоскости и адекватное распределение светлых и темных участков на сетчатке глаза; б) различная степень освещенности светочувствительных рецепторов на сетчатке глаза и различная частота возбуждения зрительных нервных волокон, оканчивающихся в различных точках сетчатки и посылающих электрические импульсы в мозг, где и создается визуальный образ

Этот фактический материал выражается на языке физики, хотя многие детали самих процессов нам могут быть и не известны, но мы вправе утверждать, что визуальное представление (зрительный образ) существует благодаря связанным между собою физическим фактам. А именно: освещенность каждого рецептора на сетчатке выступает сигналом, поступающим на него от светлого или черного элемента; возбуждение рецептора является сигналом, указывающим на степень освещенности данной точки на сетчатке глаза; степень возбуждения зрительного нерва, отправляющего в мозг электрический импульс, служит сигналом, указывающим на степень освещенности рецептора. Указанная цепочка сигналов, естественно, не должна иметь разрывов.

Целенаправленно изменим расположение черных и белых квадратов на плоскости таким образом, чтобы они составили какую-то знакомую нам картинку, например, напоминающую контуры лица. Второй рисунок обладает свойством, которое отличает его от случайного расположения черных и белых элементов: он передает нам сообщение, которое мы отождествляем с понятием «лицо». Случайно расположенные сигналы отличаются от сообщения как по способу их создания, так и по качеству восприятия. В первом случае не возникает какого-либо определенного представления, и мы, поэтому, не связываем с ним никакого знания. В противоположность этому сообщение сразу же вызывает у нас представление, связанное с некоторым знаком. При этом также очевидно, что прежде чем создать сообщение, которое передает определенное расположение сигналов, его необходимо выбрать из множества других возможных, которые можно создать этими же изобразительными средствами, например, «дом» или «дерево». Процесс выбора происходит и при приеме сообщений, следовательно, коммуникация возможна лишь тогда, когда отправитель и получатель одновременно имеют это определенное сообщение в своей базе данных, и пользуются при этом одной и той же системой отношений между сигналами и сообщениями.
Сигналы — это дискретные события, излучаемые с помощью определенных физических эффектов. Сообщения, как и сигналы, также являются дискретными событиями, но они не относятся только к категории физических эффектов. В отличие от сигналов, сообщения имеют субъективную составляющую, которая заключается в том, что благодаря сообщению получатель побуждается к выбору определенного поведения и в первую очередь в сфере знания. Физически же сообщения выражают отличительные признаки классов эквивалентных сигналов, доставляющих получателю единицу знания о той или иной предметной области. Сообщения — это дискретные единицы знания, и, следовательно, сущность сообщений может быть понята только при рассмотрении их в связи с сознанием получателя.

КОДИРОВАНИЕ СООБЩЕНИЙ И БУЛЕВ АЛГОРИТМ
Представить знания в виде сообщений — значит выразить в некотором формализме физическую реальность, синтезированную в сознании субъекта в определенное представление. В свою очередь каждое сообщение, чтобы его можно было передать другому сознанию, должно быть преобразовано в последовательность сигналов. Процесс преобразования сообщений в упорядоченную совокупность сигналов называется в теории информации кодированием, и способом кодирования в повседневном общении выступает естественный язык. Основой всякого языка являются слова — устойчивые сочетания звуков, из которых затем по правилам грамматики данного языка составляются предложения. По такому же принципу создаются и искусственные (символьные) языки, только грамматикой в них выступает формальная логика.
Пусть некто располагает какими-то знаниями, формализованными им в некоторые сообщения. Тогда, если он хочет передать эти сообщения, то он должен предварительно согласовать с их получателем форму и смысл языка. При передаче же знаний на первое место выступает требование однозначности и непротиворечивости, т. е. это должна быть устойчивая система формальных манипуляций над символами, не имеющими иного значения и смысла, как только быть сигналами. Если эта цель достигнута, то семиотическая система становится формально-логической системой. Этот принцип преобразования «свободного и могучего языка» в строгую формальную систему привносит в сознание субъекта логический детерминизм, заставляя его следовать в процессе мышления по предустановленной схеме, а не блуждать в лабиринте предположений и сомнений, как это бывает в естественной языковой среде.

Обратимся к истокам логического детерминизма. Этот феномен сознания укоренен в принципе дихотомии — способе разбиения понятия на две части, когда его объем делится на два противоречащих, но не пересекающихся друг с другом частных понятия. Например, понятие «лес» (А) делится на «лиственный лес» (В) и «нелиственный лес» (не-В). Эти частные понятия, являясь контрадикторными противоположностями, полностью исчерпывают объем общего понятия, но при этом они не вступают в противоречие, поскольку разделены границей, выражаемой логическим оператором «не». Благодаря этой границе, объемы частных понятий не совпадают ни в какой своей части, но их пересечение, тем не менее, существует и определяется родовым признаком общего понятия. Принцип дихотомии, поэтому, оказался востребованным при создании систем ИИ когда, согласно заданному алгоритму, комбинируются дискретные (непересекающиеся) базы знаний, относящейся к одной и той же предметной области, т. е. к одному и тому же роду знания. Задает же эти отношения алгоритм булевой алгебры, который основан на выборе между двоичной переменной — 0 и 1, т. е. он также основан на дихотомии, но с несколькими дополнительными условиями. Это, во-первых, первичность нулевого класса относительно класса единиц, и, во-вторых, обратимость унарной операции дополнения, т. е. преобразования нулевого класса в класс единиц — 0 в 1 и, наоборот, 1 в 0.

Булевы классы A и В универсального множества X задаются характеристической функцией вида , где . Булевым операциям пересечения , объединения и дополнения указанных характеристических функций ставятся во взаимно однозначное соответствие логические функции исчисления предикатов первого порядка, определяемые поэлементно для всех :








где , и — логические функции конъюнкции, дизъюнкции и отрицания соответственно, задаваемые следующими тождествами:







ИНФОРМАЦИЯ И ЭНТРОПИЯ В ПРЕДСТАВЛЕНИИ ЗНАНИЙ
Следуя булеву алгоритму, путем последовательностей сигналов 0 и 1, строящимся по конъюнктивным и дизъюнктивным формам с применением отрицания, можно осуществить выбор и кодирование любого сообщении, состоящего из конечного числа сигналов. При этом код, состоящий из указанных последовательностей сигналов, выступает семиотическим соответствием между любыми двумя перечнями знаков. Возможны кодовые системы и с другим числом (более двух) различных сигналов и таковыми в естественных языках выступают буквенные алфавиты, а также десятичные цифры. В [3] доказывается, что посредством m двоичных сигналов можно закодировать одно определенное сообщение из сообщений, и, наоборот, для опознавания одного сообщения из N возможных сообщений требуется ld N двоичных знаков, где ld — логарифм при основании 2, который связан с десятичным логарифмом соотношением:.
Поскольку способов кодирования для выбора одного определенного сообщения из имеющихся в базе знаний существует множество, то возникает необходимость использовать какую-то одну сигнальную систему в качестве меры для информационной оценки процесса выбора. Такой системой выступает двоичная система с единицей измерения бит (сокращение от английских слов binary digit — двоичная единица). Тогда количество информации , измеряемое в двоичных знаках, для некоторого сообщения из N событий , имеющих вероятность наступления при и , есть двоичный логарифм величины, обратной вероятности наступления этого события:



Из определения (7) видно, что набор возможных сообщений, которым располагает их отправитель, а также их статистическое распределение должны быть ему известны, на что прямо указывает выражение. Другими словами, речь в данном определении идет о достоверных событиях, которые с точки зрения модальности в классической логике оцениваются как ассерторические, и, значит, их истинность изначально обеспечена достаточными основаниями (причинами физического характера). Однако, что есть энтропия знания с точки зрения теории информации?
Если в некотором наборе сообщений содержится N различных событий, которые появляются в случайной последовательности, но с поддающейся теоретическому расчету вероятностью , то можно рассчитать среднее количество информации, приходящееся на все эти события. Для этого необходимо произвести суммирование по всему набору из N сообщений, в результате чего получаем:



Если частота появления всех сообщений одинакова , т. е., то тогда член превращается в так как .
Формулы (7) и (8) показывают сходство и различие между понятиями «информация» и «энтропия» при обработке и передаче знания, а именно: сходство их в том, что они являются частями общего понятия — «знание», и потому как когнитивные величины измеряются одной и той же единицей — битом; различие же их в том, что информация представляет знание о классических понятиях (или множествах), характеризующихся определенными значениями экстенсионала и интенсионала, а энтропия — знание о так называемых размытых понятиях (или нечетких множествах) [4]. Таким образом, посредством энтропии описывается либо приближенное знание, либо усредненное знание на том или ином интервале исследуемой предметной области. Например, величины «количество информации» и «количество энтропии» автор [3] поясняет данными, рассчитанными по формулам (7) и (8), относящимися к алфавиту немецкого языка. Так, энтропия каждой буквы составляет 4,11 бит, но в то же время, если бы все 30 знаков немецкого алфавита, включая пробел, повторялись бы в словах с одинаковой частотой, то точной информации в каждом сообщении содержалось бы бит на одну букву.
При расчете количества информации, приходящегося на одну букву алфавита, исходят только из частоты употребления различных букв, а какие-либо другие данные о буквах языка не привлекаются. Однако, помимо частотного распределения, буквы в словах естественного языка обладают взаимными связями и устойчивыми сочетаниями, непосредственно относящимися к смыслам слов, а значения слов в большой степени зависят от контекста. Если, например, требуется по сочетанию из шести букв «инф…ция» угадать все слово, то в тексте по экономике это будет «инфляция», а в тексте по кибернетике — «информация». Разговаривая по неисправному телефону, мы нередко различаем лишь части слов, но если разговор касается определенной темы, то наш слуховой аппарат способен угадывать недостающие их части. Способность восстанавливать сообщения, переданные не полным набором сигналов, зависит от двух факторов: во-первых, от того, каким набором понятий располагает получатель сообщений, т. е. от того, какими знаниями он располагает; во-вторых, — от способности получателя логически связывать принимаемые им понятия-сообщения в целостные тексты. А эту задачу решает уже не вычислительная, а обобщающая функция сознания.

ЗАКЛЮЧЕНИЕ
Попытаемся себе представить «абсолютного получателя сообщений», который, живя в детерминированном мире, знает все события этого мира на каждый данный момент времени. Для такого получателя не может быть никаких непонятных сообщений: он знает все заранее. Фантастические возможности «абсолютного получателя сообщений» еще в XVIII в. описал Лаплас: «Разумное существо, которое в каждый данный момент знало бы все движущие силы природы, и имело бы полную картину состояния, в котором природа находится, могло бы — если бы его ум был в состоянии достаточно проанализировать эти данные — выразить одним уравнением как движение самых больших тел мира, так и движение мельчайших атомов. Ничего не осталось бы для него неизвестным, и оно могло бы обозреть одним взглядом как будущее, так и прошлое».
Наше сознание, являясь частью открытого природного мира, склонно вести себя более экономно. Размытость и необратимость взаимодействий, которые, собственно, и определяют все события мира, не подлежат точному описанию, и потому комплекс человеческого мышления рационализирует этот принцип нечеткости мира посредством рассечения его на две части — истинную и ложную. Истина — то, что находится «здесь и теперь» и потому может быть ограничено достаточными основаниями (причинами) и структурировано, поэтому, посредством логических процедур (индукции, абдукции, дедукции, аналогий и пр.), а ложь — то, что только возможно «где-то и когда-нибудь», значит, это знание можно структурировать только с помощью гипотез и средних (статистических) данных. При этом информация может быть только формальной, выражающей предел относительно истинного знания, а само знание как сущность сознания блуждает в открытом интервале (0, 1), где 0 — неопределенность, 1 — достоверность. Нечеткие модели знания могут опираться и на аппарат логики, что и показал впервые Л. Заде [4], но только в том случае, если получают расширение соответствующие физические системы отсчета, либо получают математическую интерпретацию соответствующие лингвистические переменные.

ЛИТЕРАТУРА:
1. Кант И. Критика чистого разума. М., 2006.
2. Попов В. Г. Рациональная реконструкция интуитивной теории суждений // Современная логика. Материалы XI Международной научной конференции, СПб., 24–26/06.2010 г.
3. Steinbuch Karl. Automat und mensch. Springer–Verlag. Berlin, 1965.
4. Заде Л. Понятие лингвистической переменной и его применение к принятию приближенных решений. М. 1977.

Код ссылки на тему, для размещения на персональном сайте | Показать
Код: выделить все
<div style="text-align:center;">Обсудить теорию <a href="http://www.newtheory.ru/philosophy/ob-informacionno-entropiynoy-modeli-soznaniya-t2004.html">Об информационно-энтропийной модели сознания</a> Вы можете на форуме "Новая Теория".</div>

За это сообщение автора Валентин Попов поблагодарил:
che (11 окт 2012, 08:39)
Валентин Попов
 
Сообщений: 277
Зарегистрирован: 16 авг 2012, 15:14
Благодарил (а): 0 раз.
Поблагодарили: 26 раз.

Re: Об информационно-энтропийной модели сознания

Комментарий теории:#2  Сообщение che » 11 окт 2012, 08:42

Уважаемый Валентин Попов! Приятно найти на Форуме содержательный и внятно изложенный текст.
Сейчас, еще пару паз перечитаю -- и начну терзать!
che
 
Сообщений: 12057
Зарегистрирован: 25 авг 2010, 18:50
Предупреждения: 1
Благодарил (а): 880 раз.
Поблагодарили: 884 раз.


Вернуться в Философия

 


  • Похожие темы
    Ответов
    Просмотров
    Последнее сообщение

Кто сейчас на форуме

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1