متخصصان حوزههای مختلف موضوعی بیشتر کوشیدهاند جلوهها و ویژگیهای آن را ـ تا آنجا که به حوزه تخصصی آنان مربوط میشود ـ تعیین کنند. به همین سبب، اطلاعات در قلمروهایی چون ریاضیات، زبانشناسی، اقتصاد، روانشناسی، ارتباطات، و جز آن توسط صاحبنظران مورد مطالعه و تحلیل قرار گرفته و خصیصههای متفاوتی برای آن برشمردهاند (۲:۱۱)؛ بهطور مثال، از دیدگاه فیزیک و زیستشناسی، اطلاعات ویژگی اصلی عالم معرّفی میشود (۱۵)؛ در روانشناسی بهمنزله متغیری است که با برداشت حسی، ادراک، یا دیگر فرایندهای روانشناختی سروکار دارد؛ و در حوزههای اطلاعرسانی و ارتباطات بهطور گستردهای با پیامها ارتباط مییابد (۱۱:۱۶-۱۲). اطلاعات را نه تنها متضمن پیام، بلکه متأثر از وضعیت، نوع کارکرد، ویژگی مسئلهای خاص، و جز آن نیز دانستهاند (۱۲۷:۱۷-۱۴۰؛ ۱۹۷:۶-۲۰۴).
اطلاعات را گاه، به پدیدههای نسبتاً آشنای دیگری تشبیه کردهاند که بارزترین آنها تشبیه اطلاعات به مادّه و انرژی است (۱۴:۳؛ ۹۸:۱) و در این تشبیه گاه حتی فراتر رفته اطلاعات را نوعی انرژی دانستهاند و بهجای اصطلاح "انرژی"، اصطلاح "اطلاعات" را بهکار بردهاند (۱۴:۳). البته اینگونه تشبیهها در واقع فقط تعبیری استعاری است تا تبیین علمی از ماهیت اطلاعات. بیتردید پژوهشهای فراوانی درباره مفهوم اطلاعات صورت گرفته، اما تعریفی جامع و مانع که مورد قبول کلیه متخصصان رشتههای مختلف علوم باشد ارائه نشده است (۸۹:۴).
انواع اطلاعات: اطلاعات را از دو جنبه عمده تقسیمبندی میکنند: یکی از لحاظ ساختاری و دیگری از لحاظ معنایی، که هریک از این دیدگاهها خود گروههای فرعیتری را دربر میگیرد.
الف. جنبه ساختاری: ساختار اطلاعات، مستقل از جنبههای معنایی آن مطرح میشود و ممکن است برحسب ایستایی یا پویایی آن ارزیابی شود. زمانیکه اطلاعات بهصورت بستهای تغییرناپذیر درنظر گرفته شود از نوع ایستاست؛ مانند اطلاعاتی که در کتاب، تصویر، صفحه فشرده، و مانند آن ضبط و نگهداری میشود. هرگاه اطلاعات در جریان کنش یا تعامل، دستخوش حک و اصلاح، تحلیل، یا پردازش گردد از نوع پویاست. نوع اول را فرآورده و نوع دوم را فرایند میخوانند.
یک. اطلاعات بهعنوان فرآورده: زمانیکه اطلاعات را کالا تلقی کنیم، نظیر هر فرآوردهای قابلیت تولید، ذخیرهسازی، و انتقال دارد و به تبع آن میتواند آفریده شود، رشد یابد، و از میان برود (۹۷:۱). این نوع اطلاعات معمولاً قالبپذیر است یعنی میتوان آن را بهصورت کتاب، تصویر، صوت، و مانند آن درآورد و نگاه داشت. آنچه تداول عام از آن بهعنوان اطلاعات یاد میکند، ناظر بر این نوع اطلاعات است. اطلاعات از این دیدگاه، گرچه "فرآورده" است، میتواند به تناسب هدف در هر "فرایندی" قرار گیرد.
دو. اطلاعات بهعنوان فرایند: این جنبه از اطلاعات دارای خصلتی متفاوت و اندکی پیچیده است، زیرا فرایند بودن را از دو دیدگاه مدّ نظر قرار میدهد :
۱. اطلاعات به تناسب زمان و مکان تغییر میکند؛ به بیان دیگر، پدیدهای ممکن است در زمان یا مکانی اطلاعات باشد و همان پدیده در زمان یا مکان دیگری فاقد ارزش اطلاعاتی باشد و نتوان به آن اطلاعات اطلاق کرد. این نوع نگرش، در واقع، وجه معناشناختی اطلاعات را مدّ نظر دارد (۹۸:۱؛ ۳ ۱۸).
۲. اطلاعات ذاتاً جوهره فرایندی دارد (که از این دیدگاه در تقابل با تلقّی نخست قرار میگیرد) و چیزی جز فرایند نیست؛ و بنابراین، ماهیتاً پویاست. آنچه از لحاظ ساختاری ایستاست در دو سوی این فرایند قرار میگیرد که سوی آغازین آن داده و سوی انجامین آن دانش است. آنچه قالبپذیر است نه اطلاعات، که داده یا دانش است: دادهها بهعنوان مواد خام اطلاعات، و دانش بهعنوان صورت سازماندار و هدفمند مجموعهای از اطلاعات.
توصیفهای ساختاری اطلاعات ـ صرفنظر از اینکه آن را فرآورده یا فرایند بدانیم ـ همانند رویکردهای معمول نسبت به اطلاعات، از منظر واحدی صورت نمیگیرد و متأثر از نظرها و برخوردهای افراد مختلف نسبت به پدیده اطلاعات است.
ب. جنبه مفهومی: دو نگرش را میتوان درباب مفهوم اطلاعات شناسایی کرد، که یکی اِسنادی [۱] و دیگری کارکردی [۲] است. اِسنادگرایان اطلاعات را ویژگی کلیه عناصر و نظامها میدانند، یعنی این خصیصه را به وجود آنها نسبت میدهند؛ درحالیکه کارکردگرایان اطلاعات را فقط با عملکرد نظامها مرتبط میدانند (۹: فصل ۳، ص ۱). طرفداران نظریه ریاضی اطلاعات را میتوان جزو اسنادگرایان و مدافعان نظریه معناشناختی را میتوان از زمره کارکردگرایان دانست. طرح این دو نظریه مقایسه آنها را آسانتر میکند:
یک. نظریه ریاضی: نظریه ریاضی اطلاعات که معمولاً اشاره به "نظریه ریاضی ارتباطات" دارد (۳۱:۱۳) عمدتاً ناظر بر مسئله تعیین حداکثر ظرفیت یک کانال یا مجرا (مانند مدارهای تلفن یا تلگراف) برای انتقال پیامهاست. شانون خصوصاً به روابط میان این سه عامل علاقهمند بود: چگونگی رمزگذاری پیامها، وجود اختلال (یعنی هرگونه شرایطی که بخشی از علائم را دگرگون کند)، و ظرفیت کانال (۱۱: ۵).
شانون برای برآورد کارآیی هر رمز مبتنی بر مجموعهای از علائم (بهطور مثال، حروف الفبای یک خط)، از فرمول آماری آنتروپی که نخست توسط هارتلی [۳] (۵۳۵:۷) برای انتقال علائم بهکار رفته استفاده کرده است. این فرمول چنین است: H= -∑P(i) Log۲P(i) که در آن i مساوی اعداد یک تا N است و P(i)اشاره به این احتمال دارد که علامت ith در هر موضعی از پیامی خاص ظاهر شود (۵:۱۱-۶). بدین ترتیب، میتوان میزان اطلاعات در یک پیام را پیشاپیش حدس زد.
در نظریه اطلاعات شانون، معنای پیامها هیچگونه نقشی ندارد؛ آنچه مهم است توصیف آماری پیامهایی است که از طریق رمزها تولید میشوند. به همین سبب، نظریه وی نقش عمدهای در الکترونیک و علوم رایانه ایفا کرده، اما سودمندی آن در مطالعات مربوط به ارتباطات انسانی چندان به اثبات نرسیده است (۶:۱۱).
دو. نظریه معناشناختی: کارناپ [۴] و بار ـ هیلل [۵] در سال ۱۹۵۳ در >مجله بریتانیایی فلسفه علم<[۶] در انتقاد از نظریه شانون اظهار داشتند که در نظریه ریاضی ارتباطات شانون، که به نظریه اطلاعات نیز شهرت یافته است، برای سنجش مقدار اطلاعات، نمادها فقط بر اساس بسامد وقوع آنها اندازهگیری میشوند، و اینکه این نمادها چه چیز را نمادین میکنند مدّ نظر نیست (۱۸:۵). آنچه پیشنهاد میکنند این است که مقدار اطلاعات را میتوان از محاسبه تفاضل وضعیت پیش از رویارویی با یک پدیده و وضعیت پس از آن بهدست آورد (۲۲:۵).
راپوپورت [۷] در مجله >بررسی معناشناسی عمومی<[۸] در سال ۱۹۵۳، در چیستی اطلاعات اظهار میکند که در هر وضعیتی، "اطلاعات درباره چیزی که میدانیم، بهعنوان اطلاعات هیچ ارزشی ندارد" (۶:۱۰). بدین ترتیب، وی میزان اطلاعات را در قیاس با وضعیت "دانش" دریافتکننده ارزشگذاری میکند.
به نظر شرایدر [۹] نیز مقدار اطلاعات بر اساس تغییری که در وضعیت فرد ایجاد میکند قابل اندازهگیری است. بنابراین، نمیتوان در مبدأ ارسال، مقدار اطلاعات را اندازه گرفت. اندازهگیری اطلاعات در نظام کلاسیک نظریه اطلاعات، یعنی نظریه شانون، بر مبنای طول زنجیره رمزها محاسبه میشود. یعنی هرچه تعداد نمادهای دودویی (بیتها) بیشتر باشد، احتمال حضور مقدار اطلاعات موجود در یک بیان بیشتر است. اینگونه محاسبه در مورد فرمولهای شیمیایی چندان صادق نیست. زیرا، در اینگونه موارد تعداد نمادهای دودویی بسیار اندک است، و حال آنکه اطلاعات موجود در آنها ممکن است بسیار باشد (۲۶:۱۴).
شرایدر در سال ۱۹۶۵ در مجله >ذخیره و بازیابی اطلاعات<[۱۰] برای تبیین نظریه خود، نظام ذهنی دریافتکننده را به یک اصطلاحنامه* (تزاروس) تشبیه میکند. در اصطلاحنامه، اصطلاحات با پیوندهای معنایی با یکدیگر مرتبط میشوند. بنابراین، ورود هر اصطلاح به اصطلاحنامه، وضعیت آن را تغییر میدهد. در این بحث، اینکه میزان تغییر در اصطلاحنامه آیا فقط به دگرگونی اندک یا خلق اصطلاحنامهای جدید میانجامد مدّ نظر نیست، بلکه نفس تغییر حائز اهمیت است (۲۶:۱۴). در این تشبیه، ذهن دریافتکننده، همان اصطلاحنامه؛ تغییر ذهنی، همان عملکرد محتوایی "بیان" دریافتشده؛ و میزان تغییر حاصلشده، تعیینکننده میزان اطلاعات موجود در یک "بیان" است (۲۷:۱۴). بدین ترتیب، همانگونه که دو اصطلاحنامه در رویارویی با اصطلاحی واحد دو واکنش متفاوت نشان میدهند، هر بیان نیز ممکن است ذهن دریافتکنندهای را متحول کند و دیگری را متأثر نسازد.
آنچه شرایدر وضعیت ذهنی دریافتکننده، یا اصطلاحنامه، خوانده است به پیشداشته [۱۱] های دریافتکننده نیز تعبیر شده است (۱۸:۳). هر گاه آنچه اطلاعات مینامیم بتواند در پیشداشتههای دریافتکننده دگرگونی ایجاد کند دارای ارزش اطلاعاتی است. به بیان دیگر، اطلاعات فقط در آستانه استفاده است که معنا پیدا میکند. بهطور مثال، رگهای از یک صخره برای رهگذری عامی هیچ معنای خاصی ندارد، اما برای زمینشناس، سرشار از اطلاعات است (۱۹:۳).
تعامل اطلاعات با مفاهیم دیگر: اطلاعات با مفاهیم دیگری نیز سنجیده شده یا تأثیر و تأثر آنها مطالعه میشود که بعضی از مهمترین آنها را میتوان چنین برشمرد:
اطلاعات و آنتروپی: بنابر اصل ذخیره انرژی در مکانیک، مقدار معیّنی حرارت از لحاظ انرژییی که دربر دارد، برابر مقدار معیّنی کار است. اما در موتورهایی که در آنها حرارت به کار مفید تبدیل میشود، این عمل فقط درصورتی انجام میگیرد که حرارت بتواند از منبعی با دمای بالاتر به مخزنی با دمای پایینتر جریان یابد. بنابراین، برای تبدیل حرارت به کار، اختلاف دما اجتنابناپذیر است. هرچه اختلاف دمای دو منبع کمتر باشد، مقدار حرارتی که میتواند به کار تبدیل شود کمتر خواهد بود. هرگاه دمای دو منبع یکسان باشد حرارتی جابهجا نخواهد شد و طبعاً کاری نیز انجام نخواهد گرفت. در چنین حالتی گفته میشود آنتروپی در بالاترین حد است. زیرا آنتروپی، در واقع، در دسترس نبودن انرژی حرارتی برای تبدیل به کار مفید است.
به همین ترتیب، اطلاعات زمانی از منبعی به منبع دیگر جریان مییابد که منبع ارسالکننده در قیاس با منبع دریافتکننده در سطح بالاتری قرار داشته باشد، تا بتواند در ساختار نظام دریافتکننده دگرگونی ایجاد کند. این دگرگونی ممکن است خود قابل تشخیص نباشد، ولی رفتاری که از این دگرگونی ناشی میشود دارای جلوههایی است که میتوان آثارش را در آنها بازشناخت. این رفتار ناشی از دریافت اطلاعات به زبان ترمودینامیک، کار مفید و به زبان اطلاعرسانی، تصمیمگیری است. بنابراین، آنتروپی در واقع نبود اطلاعات برای تصمیمگیری است.
آنتروپی با این تعبیر در اطلاعات دارای اهمیت بسیار است و در اندازهگیری مقدار اطلاعات از آن استفادههای فراوان کردهاند. رابطه آنتروپی و اطلاعات از دو دیدگاه قابل مطالعه است:
الف. هرچه آنتروپی بیشتر باشد، برای رفع آن، نیاز به اطلاعات بیشتری است. اگر اطلاعات از منبعی به منبع دیگر جریان پیدا نکند آنتروپی در حد بالاست و درنتیجه، کاری صورت نخواهد گرفت. در موتورهای حرارتی، با سرد کردن منبع دریافتکننده، اختلاف دما را حفظ میکنند تا کار مفید صورت گیرد، یعنی موتور "کار" کند. اما در جریان اطلاعرسانی، منبع ارسالکننده را در سطح بالا نگه میدارند تا پیوسته اختلاف سطح وجود داشته باشد و درنتیجه، اطلاعات جریان پیدا کند و به کار مفید (تصمیمگیری) بینجامد.
ب. هرچه آنتروپی بیشتر باشد، حضور اطلاعات در نظام کمتر است، یعنی سطح دو منبع ارسالکننده و دریافتکننده به هم نزدیکتر است. نتیجه این وضع نیز مانند نتیجه بخش "الف" است، یعنی نبود اطلاعات سبب جریان نیافتن آن از منبعی به منبع دیگر میشود، و "کاری" صورت نمیگیرد. به همین سبب، گاه بهجای اطلاعات کلمه "نگانتروپی" (آنتروپی منفی) را بهکار میبرند (۳: ۱۴-۱۵).
اطلاعات و احتمال: با پیدایش نظریه جنبشی مادّه، دیدگاههای تازهای باب شد و بهجای مفاهیم دما و حرارت، سخن از انرژی جنبشی مولکولهای تشکیلدهنده نظام به میان آمد، و بدین ترتیب، آنتروپی نیز با مفهوم احتمال ـ ساختمان آرایش مولکولها در وضعیتی خاص ـ تبیین گردید. علت آنکه وقتی دمای سراسر یک نظام یکسان باشد آنتروپی در بالاترین حد خواهد بود این است که اینگونه توزیع دما دارای بیشترین احتمال است. بنابراین، آنتروپی و احتمال، دو تعبیر متفاوت برای جریانی واحد است، یعنی هرچه احتمال بیشتر باشد آنتروپی بیشتر است.
رابطه اطلاعات و احتمال نیز ـ نظیر آنتروپی ـ بنابر شیوه برخورد نسبت به آن، به دو صورت قابل بررسی است:
الف. هرچه درجه احتمال بالاتر باشد حضور اطلاعات کمتر است. اگر به ما بگویند خورشید فردا در مغرب غروب خواهد کرد کمترین اطلاعات را به ما دادهاند، چون وقوع چنین رویدادی از بالاترین حد احتمال برخوردار است، رابطه این دو بهگونهای است که وقتی احتمال خبری مساوی یک (صددرصد) باشد، مضمون اطلاعاتی آن صفر است؛
ب. هرچه درجه احتمال بالاتر باشد برای تبیین آن نیاز به اطلاعات بیشتری است. فرض کنیم در مسابقه بیست سؤالی شرکت جستهایم. اگر در نخستین پرسش سؤال کنیم "منقول است؟ "، پاسخ "بلی" یا "نه" مجری برنامه، ما را با دو مجموعه احتمال وسیع روبهرو خواهد کرد که برای رسیدن به پاسخ نهاییـ یعنی رساندن درجه احتمال به صفر یا نزدیک به صفر ـ به اطلاعات فراوانی نیاز است که از طریق پرسش و پاسخ میکوشیم به آن دست یابیم. اگر شرکتکننده زیرکی باشیم سعی میکنیم از ابتدا، با به "نظم درآوردن" پرسشها، میزان احتمال را سریعتر کاهش دهیم. از همینجا مسئله "نظم" و "بینظمی" در نظریه اطلاعات مطرح میشود (۱۵:۳-۱۶).
اطلاعات و بینظمی: مفهوم "بینظمی" در نظام نیز با آنتروپی پیوند دارد. در واقع "بینظمی"، "احتمال"، و "آنتروپی" سه تبیین متفاوت از جریانی واحد است. رابطه دو مفهوم "بینظمی" و "اطلاعات" را نیز میتوان به دو گونه تعبیر کرد:
الف. هرچه بینظمی کمتر باشد برای توصیف آن نیاز به اطلاعات کمتری است. بهطور مثال، چراغ راهنمایی چهارراهها در حالت عادی دارای کمترین بینظمی است؛ بنابراین، پیوسته میدانیم که پس از چراغ سبز، چراغ زرد، و سپس چراغ قرمز روشن میشود. اگر زمانیکه چراغ سبز روشن است به فردی که در اتومبیل کنار ما نشسته است بگوییم که بعد از آن، چراغ زرد روشن خواهد شد کمترین اطلاعات را به او دادهایم، زیرا جز آن انتظار ندارد و این مطلب را پیشاپیش میداند؛
ب. هرچه بینظمی بیشتر باشد حضور اطلاعات در نظام کمتر است. در مثال بالا، هر گاه نظم معمول چراغ راهنمایی مختل شود، هیچ اطلاعی نداریم که پس از هر رنگ چه رنگ دیگری روشن خواهد شد. بدین ترتیب، نخواهیم دانست که حرکت بعدی ما چه خواهد بود (۳: ۱۶-۱۷).
اطلاعات و تصمیمگیری: تصمیمگیری در واقع برنامهریزی برای انجام کار است. زمانیکه از رهگذری نشانی محلی را میپرسیم، پاسخی که دریافت میکنیم حرکت بعدی ما را تعیین میکند. زمانیکه به فرهنگ لغت رجوع میکنیم، معنا یا املای لغت مورد جستوجو، حرکت بعدی ما ـ یعنی چگونگی بهکار بردن آنـ را مشخص میسازد. زمانیکه قصد ایجاد کارخانهای را داریم، آنچه درباره وضع زمین و محیط فرهنگی و جغرافیایی و زیستی کسب میکنیم در تصمیم ما برای چگونگی انجام کار اثر میگذارد. اگر بگوییم اطلاعات و تصمیمگیری دو روی یک سکهاند گزاف نگفتهایم، زیرا بدون اطلاعات امکان هیچگونه تصمیمگیری نیست. اگر بپذیریم که اطلاعات را بر اساس تغییری که در نظام دریافتکننده پدید میآورد میسنجیم و این تغییر چیزی جز تصمیمگیری نیست، میتوان استنباط کرد که این تصمیمگیری است که تعیین میکند چه چیز اطلاعات است و چه چیز اطلاعات نیست (۲۰:۳-۲۱).
اطلاعات و ارتباطات: در تعاریفی که از ارتباطات ارائه شده پیوسته بر "پیام"[۱۲] و مجرای انتقال آن تأکید گردیده است (۸: ج ۱، ص ۶۵). رابطه اطلاعات و ارتباطات* از دو دیدگاه قابل تأمل است: ۱) از لحاظ جریان اطلاعات؛ و ۲) از جهت مفهوم آن.
در دیدگاه نخست، انتقال اطلاعات بدون بهرهگیری از بستر ارتباطی ممکن نیست. هرگاه فرستندهای درصدد ارسال یا ارائه اطلاعات به گیرندهای باشد، ناگزیر از پیمودن مسیر ارتباطی و برخورداری از عناصر دخیل در فرایند ارتباط است. و این الزام در مورد هرگونه رسانهای اعم از کتاب، مجله، رادیو، تلویزیون، شبکههای اطلاعاتی، و جز آن صادق است.
در دومین دیدگاه، رابطه "اطلاعات" و "پیام" مدّ نظر قرار میگیرد. در توصیف ارتباطات، همهجا سخن از انتقال پیام است؛ اما انتقال پیام هیچگونه انتقال اطلاعاتی را تضمین نمیکند. برای تبدیل پیام به اطلاعات، میبایست شرایطی در دو سوی فرایند ارتباط حضور داشته باشد (۲: ۱۳۴-۱۳۵). این شرایط شامل همسویی درک و دریافت فرستنده با گیرنده و پذیرا بودن گیرنده در قبال پیامی است که فرستنده ارسال کرده است.
در مجموع، میتوان گفت که علیرغم حضور اطلاعات در کلیه فرآوردهها، فرایندها، عناصر، و پدیدهها و کاربرد گسترده آن در عرصههای گوناگون، تبیین ماهیت آن مورد توافق و اجماع متخصصان نیست، هرچند این نقیصه هرگز از اهمیت آن نکاسته است.
- مآخذ:
۱) اوتن، کلاس. "اساس علم اطلاعات". ترجمه علیاصغر شیری. فصلنامه کتاب. دوره پنجم، ۱-۲ (بهار و تابستان ۱۳۷۳): ۷۳-۱۰۴؛ ۲) باد، جان. "کتابخانه، اطلاع و معنا". ترجمه محبوبه مهاجر. فصلنامه کتاب. دوره چهارم، ۲ (تابستان ۱۳۷۲): ۱۳۳-۱۷۸؛ ۳) حرّی، عباس. مروری بر اطلاعات و اطلاعرسانی: "اطلاعات چیست؟ ". تهران: دبیرخانه هیأت امنای کتابخانههای عمومی کشور، نشر کتابخانه، ۱۳۷۲، ص ۱۳-۲۲؛ ۴) مساوات، جلال. "مفهوم اطلاع (۱)". اطلاعرسانی: نشریه فنی مرکز اسناد و مدارک علمی. دوره هفتم، ۱ (۱۳۶۲): ۸۷-۱۰۸؛
۵) Bar- Hillel, Y.; Carnap, R. "Semantic Information", in Introduction to Information Science, [a collection of papers]. compiled and edited by Tefko Saracevic. NewYork & London: Bowker Company, ۱۹۷۰, PP. ۱۸- ۲۳;
۶) Belkin, N.J.; Robertson, S.E. "Information Science and the Phenomena of Information". Journal of the American Society for Information Science. Vol.۷, No.۴ (۱۹۷۶): ۱۹۷-۲۰۴;
۷) Hartley, R.V.L. "Transmission of Information". Bell System Technical Journal. Vol. ۷ (۱۹۲۸): ۵۳۵;
۸) Meadows, Jack. "Communication". International Encyclopedia of Information and Library Science. Vol.۱, PP. ۶۳-۷۱;
۹) Mokiy, V.S.; Zhamborova, A.O.; Shegay, O.E. "Theory of Informology", ۲۰۰۰ [on-line]. Available: http:// www.ininin.org/book-e/ html;
۱۰) Rapoport, Anatol. "What is Information?", in Introduction to Information Science, [a Collection of Papers]. Compiled and edited by Tefko Saracevic. NewYork & London: Bowker Company, ۱۹۷۰, PP.۵-۱۲;
۱۱) Ritchie, L. David. Information. Newbury Park & London: Sage Publications, ۱۹۹۱;
۱۲) Sarcevic, Tefko. "Information Science". Journal of the American Society for Information Science. Vol.۵۰, No.۱۲ (۱۹۹۹):۱۰۵۷;
۱۳) Shannon, C. "The Mathematical Theory of Communication", in C. Shannon & W. Weaver. The Mathematical Theory of Communication. Urbana: University of Illinois Press, ۱۹۴۹, PP. ۳۱-۱۲۵;
۱۴) Shreider, Yu.A. "On the Semantic Characteristics of Information", in Introduction to Information Science, [a Collection of Papers]. compiled and edited by Tefko Saracevic. NewYork & London: Bowker Company, ۱۹۷۰, PP. ۲۴-۳۲;
۱۵) Stonier, T. Information and Meaning: An Evolutionary Perspective. Berlin: Springer, ۱۹۹۷;
۱۶) Tague-sutcliff, J. Measuring Information: The Information Services Perspective. San Diago, CA: Academic Press, ۱۹۹۵; ۱۷) Wersig, G.; Nevelling, U. "The phenomena of Interest to Information Science". Information Scientist. Vol.۹ (۱۹۷۵): ۱۲۷-۱۴۰.
---------------------------------------------------------------
[۱]. Attributive
[۲]. Functional
[۳]. R.V.L. Hartley
[۴]. Rudolf Carnap
[۵]. Yehoshua Bar-Hillel
[۶]. British Journal for the Philosophy of Science
[۷]. Anatol Rapoport
[۸]. A Review of General Semantics (ETC)
[۹]. Shreider
[۱۰]. Information Storage & Retrieval
[۱۱]. Predisposition
[۱۲]. Message
نظر شما