سه‌شنبه ۳ شهریور ۱۳۹۴ - ۱۳:۰۹
۰ نفر

عباس حُرّی: درباره این پدیده، همچون سایر پدیده‌های بنیانی نظیر انرژی، جاذبه، حیات، عدالت، و مانند آن؛ تاکنون تعریفی دقیق و رسمی ارائه نشده است (۱۰۵۷:۱۲).

iformation

متخصصان حوزه‌های مختلف موضوعی بیشتر کوشیده‌اند جلوه‌ها و ویژگی‌های آن را ـ تا آنجا که به حوزه تخصصی آنان مربوط می‌شود ـ تعیین کنند. به همین سبب، اطلاعات در قلمروهایی چون ریاضیات، زبان‌شناسی، اقتصاد، روان‌شناسی، ارتباطات، و جز آن توسط صاحب‌نظران مورد مطالعه و تحلیل قرار گرفته و خصیصه‌های متفاوتی برای آن برشمرده‌اند (۲:۱۱)؛ به‌طور مثال، از دیدگاه فیزیک و زیست‌شناسی، اطلاعات ویژگی اصلی عالم معرّفی می‌شود (۱۵)؛ در روان‌شناسی به‌منزله متغیری است که با برداشت حسی، ادراک، یا دیگر فرایندهای روانشناختی سروکار دارد؛ و در حوزه‌های اطلاع‌رسانی و ارتباطات به‌طور گسترده‌ای با پیام‌ها ارتباط می‌یابد (۱۱:۱۶-۱۲). اطلاعات را نه تنها متضمن پیام، بلکه متأثر از وضعیت، نوع کارکرد، ویژگی مسئله‌ای خاص، و جز آن نیز دانسته‌اند (۱۲۷:۱۷-۱۴۰؛ ۱۹۷:۶-۲۰۴).

اطلاعات را گاه، به پدیده‌های نسبتاً آشنای دیگری تشبیه کرده‌اند که بارزترین آنها تشبیه اطلاعات به مادّه و انرژی است (۱۴:۳؛ ۹۸:۱) و در این تشبیه گاه حتی فراتر رفته اطلاعات را نوعی انرژی دانسته‌اند و به‌جای اصطلاح "انرژی"، اصطلاح "اطلاعات" را به‌کار برده‌اند (۱۴:۳). البته این‌گونه تشبیه‌ها در واقع فقط تعبیری استعاری است تا تبیین علمی از ماهیت اطلاعات. بی‌تردید پژوهش‌های فراوانی درباره مفهوم اطلاعات صورت گرفته، اما تعریفی جامع و مانع که مورد قبول کلیه متخصصان رشته‌های مختلف علوم باشد ارائه نشده است (۸۹:۴).

انواع اطلاعات: اطلاعات را از دو جنبه عمده تقسیم‌بندی می‌کنند: یکی از لحاظ ساختاری و دیگری از لحاظ معنایی، که هریک از این دیدگاه‌ها خود گروه‌های فرعی‌تری را دربر می‌گیرد.

الف. جنبه ساختاری: ساختار اطلاعات، مستقل از جنبه‌های معنایی آن مطرح می‌شود و ممکن است برحسب ایستایی یا پویایی آن ارزیابی شود. زمانی‌که اطلاعات به‌صورت بسته‌ای تغییرناپذیر درنظر گرفته شود از نوع ایستاست؛ مانند اطلاعاتی که در کتاب، تصویر، صفحه فشرده، و مانند آن ضبط و نگهداری می‌شود. هرگاه اطلاعات در جریان کنش یا تعامل، دستخوش حک و اصلاح، تحلیل، یا پردازش گردد از نوع پویاست. نوع اول را فرآورده و نوع دوم را فرایند می‌خوانند.

یک. اطلاعات به‌عنوان فرآورده: زمانی‌که اطلاعات را کالا تلقی کنیم، نظیر هر فرآورده‌ای قابلیت تولید، ذخیره‌سازی، و انتقال دارد و به تبع آن می‌تواند آفریده شود، رشد یابد، و از میان برود (۹۷:۱). این نوع اطلاعات معمولاً قالب‌پذیر است یعنی می‌توان آن را به‌صورت کتاب، تصویر، صوت، و مانند آن درآورد و نگاه داشت. آنچه تداول عام از آن به‌عنوان اطلاعات یاد می‌کند، ناظر بر این نوع اطلاعات است. اطلاعات از این دیدگاه، گرچه "فرآورده" است، می‌تواند به تناسب هدف در هر "فرایندی" قرار گیرد.

دو. اطلاعات به‌عنوان فرایند: این جنبه از اطلاعات دارای خصلتی متفاوت و اندکی پیچیده است، زیرا فرایند بودن را از دو دیدگاه مدّ نظر قرار می‌دهد :

۱. اطلاعات به تناسب زمان و مکان تغییر می‌کند؛ به بیان دیگر، پدیده‌ای ممکن است در زمان یا مکانی اطلاعات باشد و همان پدیده در زمان یا مکان دیگری فاقد ارزش اطلاعاتی باشد و نتوان به آن اطلاعات اطلاق کرد. این نوع نگرش، در واقع، وجه معناشناختی اطلاعات را مدّ نظر دارد (۹۸:۱؛ ۳ ۱۸).

۲. اطلاعات ذاتاً جوهره فرایندی دارد (که از این دیدگاه در تقابل با تلقّی نخست قرار می‌گیرد) و چیزی جز فرایند نیست؛ و بنابراین، ماهیتاً پویاست. آنچه از لحاظ ساختاری ایستاست در دو سوی این فرایند قرار می‌گیرد که سوی آغازین آن داده و سوی انجامین آن دانش است. آنچه قالب‌پذیر است نه اطلاعات، که داده یا دانش است: داده‌ها به‌عنوان مواد خام اطلاعات، و دانش به‌عنوان صورت سازماندار و هدفمند مجموعه‌ای از اطلاعات.

توصیف‌های ساختاری اطلاعات ـ صرف‌نظر از اینکه آن را فرآورده یا فرایند بدانیم ـ همانند رویکردهای معمول نسبت به اطلاعات، از منظر واحدی صورت نمی‌گیرد و متأثر از نظرها و برخوردهای افراد مختلف نسبت به پدیده اطلاعات است.

ب. جنبه مفهومی: دو نگرش را می‌توان درباب مفهوم اطلاعات شناسایی کرد، که یکی اِسنادی [۱]  و دیگری کارکردی [۲] است. اِسنادگرایان اطلاعات را ویژگی کلیه عناصر و نظام‌ها می‌دانند، یعنی این خصیصه را به وجود آنها نسبت می‌دهند؛ درحالی‌که کارکردگرایان اطلاعات را فقط با عملکرد نظام‌ها مرتبط می‌دانند (۹: فصل ۳، ص ۱). طرفداران نظریه ریاضی اطلاعات را می‌توان جزو اسنادگرایان و مدافعان نظریه معناشناختی را می‌توان از زمره کارکردگرایان دانست. طرح این دو نظریه مقایسه آنها را آسان‌تر می‌کند:

یک. نظریه ریاضی: نظریه ریاضی اطلاعات که معمولاً اشاره به "نظریه ریاضی ارتباطات" دارد (۳۱:۱۳) عمدتاً ناظر بر مسئله تعیین حداکثر ظرفیت یک کانال یا مجرا (مانند مدارهای تلفن یا تلگراف) برای انتقال پیام‌هاست. شانون خصوصاً به روابط میان این سه عامل علاقه‌مند بود: چگونگی رمزگذاری پیام‌ها، وجود اختلال (یعنی هرگونه شرایطی که بخشی از علائم را دگرگون کند)، و ظرفیت کانال (۱۱: ۵).

شانون برای برآورد کارآیی هر رمز مبتنی بر مجموعه‌ای از علائم (به‌طور مثال، حروف الفبای یک خط)، از فرمول آماری آنتروپی که نخست توسط هارتلی [۳]  (۵۳۵:۷) برای انتقال علائم به‌کار رفته استفاده کرده است. این فرمول چنین است: H= -∑P(i) Log۲P(i) که در آن  i مساوی اعداد یک تا  N است و  P(i)اشاره به این احتمال دارد که علامت ith در هر موضعی از پیامی خاص ظاهر شود (۵:۱۱-۶). بدین ترتیب، می‌توان میزان اطلاعات در یک پیام را پیشاپیش حدس زد.

در نظریه اطلاعات شانون، معنای پیام‌ها هیچ‌گونه نقشی ندارد؛ آنچه مهم است توصیف آماری پیام‌هایی است که از طریق رمزها تولید می‌شوند. به همین سبب، نظریه وی نقش عمده‌ای در الکترونیک و علوم رایانه ایفا کرده، اما سودمندی آن در مطالعات مربوط به ارتباطات انسانی چندان به اثبات نرسیده است (۶:۱۱).

دو. نظریه معناشناختی: کارناپ [۴]  و بار ـ هیلل [۵]  در سال ۱۹۵۳ در >مجله بریتانیایی فلسفه علم<[۶]  در انتقاد از نظریه شانون اظهار داشتند که در نظریه ریاضی ارتباطات شانون، که به نظریه اطلاعات نیز شهرت یافته است، برای سنجش مقدار اطلاعات، نمادها فقط بر اساس بسامد وقوع آنها اندازه‌گیری می‌شوند، و اینکه این نمادها چه چیز را نمادین می‌کنند مدّ نظر نیست (۱۸:۵). آنچه پیشنهاد می‌کنند این است که مقدار اطلاعات را می‌توان از محاسبه تفاضل وضعیت پیش از رویارویی با یک پدیده و وضعیت پس از آن به‌دست آورد (۲۲:۵).

راپوپورت [۷]  در مجله >بررسی معناشناسی عمومی<[۸]  در سال ۱۹۵۳، در چیستی اطلاعات اظهار می‌کند که در هر وضعیتی، "اطلاعات درباره چیزی که می‌دانیم، به‌عنوان اطلاعات هیچ ارزشی ندارد" (۶:۱۰). بدین ترتیب، وی میزان اطلاعات را در قیاس با وضعیت "دانش" دریافت‌کننده ارزش‌گذاری می‌کند.

به نظر شرایدر [۹]  نیز مقدار اطلاعات بر اساس تغییری که در وضعیت فرد ایجاد می‌کند قابل اندازه‌گیری است. بنابراین، نمی‌توان در مبدأ ارسال، مقدار اطلاعات را اندازه گرفت. اندازه‌گیری اطلاعات در نظام کلاسیک نظریه اطلاعات، یعنی نظریه شانون، بر مبنای طول زنجیره رمزها محاسبه می‌شود. یعنی هرچه تعداد نمادهای دودویی (بیت‌ها) بیشتر باشد، احتمال حضور مقدار اطلاعات موجود در یک بیان بیشتر است. این‌گونه محاسبه در مورد فرمول‌های شیمیایی چندان صادق نیست. زیرا، در این‌گونه موارد تعداد نمادهای دودویی بسیار اندک است، و حال آنکه اطلاعات موجود در آنها ممکن است بسیار باشد (۲۶:۱۴).

شرایدر در سال ۱۹۶۵ در مجله >ذخیره و بازیابی اطلاعات<[۱۰]  برای تبیین نظریه خود، نظام ذهنی دریافت‌کننده را به یک اصطلاحنامه* (تزاروس) تشبیه می‌کند. در اصطلاحنامه، اصطلاحات با پیوندهای معنایی با یکدیگر مرتبط می‌شوند. بنابراین، ورود هر اصطلاح به اصطلاحنامه، وضعیت آن را تغییر می‌دهد. در این بحث، اینکه میزان تغییر در اصطلاحنامه آیا فقط به دگرگونی اندک یا خلق اصطلاحنامه‌ای جدید می‌انجامد مدّ نظر نیست، بلکه نفس تغییر حائز اهمیت است (۲۶:۱۴). در این تشبیه، ذهن دریافت‌کننده، همان اصطلاحنامه؛ تغییر ذهنی، همان عملکرد محتوایی "بیان" دریافت‌شده؛ و میزان تغییر حاصل‌شده، تعیین‌کننده میزان اطلاعات موجود در یک "بیان" است (۲۷:۱۴). بدین ترتیب، همان‌گونه که دو اصطلاحنامه در رویارویی با اصطلاحی واحد دو واکنش متفاوت نشان می‌دهند، هر بیان نیز ممکن است ذهن دریافت‌کننده‌ای را متحول کند و دیگری را متأثر نسازد.

آنچه شرایدر وضعیت ذهنی دریافت‌کننده، یا اصطلاحنامه، خوانده است به پیشداشته [۱۱] های دریافت‌کننده نیز تعبیر شده است (۱۸:۳). هر گاه آنچه اطلاعات می‌نامیم بتواند در پیشداشته‌های دریافت‌کننده دگرگونی ایجاد کند دارای ارزش اطلاعاتی است. به بیان دیگر، اطلاعات فقط در آستانه استفاده است که معنا پیدا می‌کند. به‌طور مثال، رگه‌ای از یک صخره برای رهگذری عامی هیچ معنای خاصی ندارد، اما برای زمین‌شناس، سرشار از اطلاعات است (۱۹:۳).

تعامل اطلاعات با مفاهیم دیگر:  اطلاعات با مفاهیم دیگری نیز سنجیده شده یا تأثیر و تأثر آنها مطالعه می‌شود که بعضی از مهم‌ترین آنها را می‌توان چنین برشمرد:

اطلاعات و آنتروپی:  بنابر اصل ذخیره انرژی در مکانیک، مقدار معیّنی حرارت از لحاظ انرژی‌یی که دربر دارد، برابر مقدار معیّنی کار است. اما در موتورهایی که در آنها حرارت به کار مفید تبدیل می‌شود، این عمل فقط درصورتی انجام می‌گیرد که حرارت بتواند از منبعی با دمای بالاتر به مخزنی با دمای پایین‌تر جریان یابد. بنابراین، برای تبدیل حرارت به کار، اختلاف دما اجتناب‌ناپذیر است. هرچه اختلاف دمای دو منبع کمتر باشد، مقدار حرارتی که می‌تواند به کار تبدیل شود کمتر خواهد بود. هرگاه دمای دو منبع یکسان باشد حرارتی جابه‌جا نخواهد شد و طبعاً کاری نیز انجام نخواهد گرفت. در چنین حالتی گفته می‌شود آنتروپی در بالاترین حد است. زیرا آنتروپی، در واقع، در دسترس نبودن انرژی حرارتی برای تبدیل به کار مفید است.

به همین ترتیب، اطلاعات زمانی از منبعی به منبع دیگر جریان می‌یابد که منبع ارسال‌کننده در قیاس با منبع دریافت‌کننده در سطح بالاتری قرار داشته باشد، تا بتواند در ساختار نظام دریافت‌کننده دگرگونی ایجاد کند. این دگرگونی ممکن است خود قابل تشخیص نباشد، ولی رفتاری که از این دگرگونی ناشی می‌شود دارای جلوه‌هایی است که می‌توان آثارش را در آنها بازشناخت. این رفتار ناشی از دریافت اطلاعات به زبان ترمودینامیک، کار مفید و به زبان اطلاع‌رسانی، تصمیم‌گیری است. بنابراین، آنتروپی در واقع نبود اطلاعات برای تصمیم‌گیری است.

آنتروپی با این تعبیر در اطلاعات دارای اهمیت بسیار است و در اندازه‌گیری مقدار اطلاعات از آن استفاده‌های فراوان کرده‌اند. رابطه آنتروپی و اطلاعات از دو دیدگاه قابل مطالعه است:

الف. هرچه آنتروپی بیشتر باشد، برای رفع آن، نیاز به اطلاعات بیشتری است. اگر اطلاعات از منبعی به منبع دیگر جریان پیدا نکند آنتروپی در حد بالاست و درنتیجه، کاری صورت نخواهد گرفت. در موتورهای حرارتی، با سرد کردن منبع دریافت‌کننده، اختلاف دما را حفظ می‌کنند تا کار مفید صورت گیرد، یعنی موتور "کار" کند. اما در جریان اطلاع‌رسانی، منبع ارسال‌کننده را در سطح بالا نگه می‌دارند تا پیوسته اختلاف سطح وجود داشته باشد و درنتیجه، اطلاعات جریان پیدا کند و به کار مفید (تصمیم‌گیری) بینجامد.

ب. هرچه آنتروپی بیشتر باشد، حضور اطلاعات در نظام کمتر است، یعنی سطح دو منبع ارسال‌کننده و دریافت‌کننده به هم نزدیک‌تر است. نتیجه این وضع نیز مانند نتیجه بخش "الف" است، یعنی نبود اطلاعات سبب جریان نیافتن آن از منبعی به منبع دیگر می‌شود، و "کاری" صورت نمی‌گیرد. به همین سبب، گاه به‌جای اطلاعات کلمه "نگانتروپی" (آنتروپی منفی) را به‌کار می‌برند (۳: ۱۴-۱۵).

اطلاعات و احتمال: با پیدایش نظریه جنبشی مادّه، دیدگاه‌های تازه‌ای باب شد و به‌جای مفاهیم دما و حرارت، سخن از انرژی جنبشی مولکول‌های تشکیل‌دهنده نظام به میان آمد، و بدین ترتیب، آنتروپی نیز با مفهوم احتمال ـ ساختمان آرایش مولکول‌ها در وضعیتی خاص ـ تبیین گردید. علت آنکه وقتی دمای سراسر یک نظام یکسان باشد آنتروپی در بالاترین حد خواهد بود این است که این‌گونه توزیع دما دارای بیشترین احتمال است. بنابراین، آنتروپی و احتمال، دو تعبیر متفاوت برای جریانی واحد است، یعنی هرچه احتمال بیشتر باشد آنتروپی بیشتر است.

رابطه اطلاعات و احتمال نیز ـ نظیر آنتروپی ـ بنابر شیوه برخورد نسبت به آن، به دو صورت قابل بررسی است:

الف. هرچه درجه احتمال بالاتر باشد حضور اطلاعات کمتر است. اگر به ما بگویند خورشید فردا در مغرب غروب خواهد کرد کمترین اطلاعات را به ما داده‌اند، چون وقوع چنین رویدادی از بالاترین حد احتمال برخوردار است، رابطه این دو به‌گونه‌ای است که وقتی احتمال خبری مساوی یک (صددرصد) باشد، مضمون اطلاعاتی آن صفر است؛

ب. هرچه درجه احتمال بالاتر باشد برای تبیین آن نیاز به اطلاعات بیشتری است. فرض کنیم در مسابقه بیست سؤالی شرکت جسته‌ایم. اگر در نخستین پرسش سؤال کنیم "منقول است؟ "، پاسخ "بلی" یا "نه" مجری برنامه، ما را با دو مجموعه احتمال وسیع روبه‌رو خواهد کرد که برای رسیدن به پاسخ نهایی‌ـ یعنی رساندن درجه احتمال به صفر یا نزدیک به صفر ـ به اطلاعات فراوانی نیاز است که از طریق پرسش و پاسخ می‌کوشیم به آن دست یابیم. اگر شرکت‌کننده زیرکی باشیم سعی می‌کنیم از ابتدا، با به "نظم درآوردن" پرسش‌ها، میزان احتمال را سریع‌تر کاهش دهیم. از همین‌جا مسئله "نظم" و "بی‌نظمی" در نظریه اطلاعات مطرح می‌شود (۱۵:۳-۱۶).

اطلاعات و بی‌نظمی: مفهوم "بی‌نظمی" در نظام نیز با آنتروپی پیوند دارد. در واقع "بی‌نظمی"، "احتمال"، و "آنتروپی" سه تبیین متفاوت از جریانی واحد است. رابطه دو مفهوم "بی‌نظمی" و "اطلاعات" را نیز می‌توان به دو گونه تعبیر کرد:

الف. هرچه بی‌نظمی کمتر باشد برای توصیف آن نیاز به اطلاعات کمتری است. به‌طور مثال، چراغ راهنمایی چهارراه‌ها در حالت عادی دارای کمترین بی‌نظمی است؛ بنابراین، پیوسته می‌دانیم که پس از چراغ سبز، چراغ زرد، و سپس چراغ قرمز روشن می‌شود. اگر زمانی‌که چراغ سبز روشن است به فردی که در اتومبیل کنار ما نشسته است بگوییم که بعد از آن، چراغ زرد روشن خواهد شد کمترین اطلاعات را به او داده‌ایم، زیرا جز آن انتظار ندارد و این مطلب را پیشاپیش می‌داند؛

ب. هرچه بی‌نظمی بیشتر باشد حضور اطلاعات در نظام کمتر است. در مثال بالا، هر گاه نظم معمول چراغ راهنمایی مختل شود، هیچ اطلاعی نداریم که پس از هر رنگ چه رنگ دیگری روشن خواهد شد. بدین ترتیب، نخواهیم دانست که حرکت بعدی ما چه خواهد بود (۳: ۱۶-۱۷).

اطلاعات و تصمیم‌گیری: تصمیم‌گیری در واقع برنامه‌ریزی برای انجام کار است. زمانی‌که از رهگذری نشانی محلی را می‌پرسیم، پاسخی که دریافت می‌کنیم حرکت بعدی ما را تعیین می‌کند. زمانی‌که به فرهنگ لغت رجوع می‌کنیم، معنا یا املای لغت مورد جست‌وجو، حرکت بعدی ما ـ یعنی چگونگی به‌کار بردن آن‌ـ را مشخص می‌سازد. زمانی‌که قصد ایجاد کارخانه‌ای را داریم، آنچه درباره وضع زمین و محیط فرهنگی و جغرافیایی و زیستی کسب می‌کنیم در تصمیم ما برای چگونگی انجام کار اثر می‌گذارد. اگر بگوییم اطلاعات و تصمیم‌گیری دو روی یک سکه‌اند گزاف نگفته‌ایم، زیرا بدون اطلاعات امکان هیچ‌گونه تصمیم‌گیری نیست. اگر بپذیریم که اطلاعات را بر اساس تغییری که در نظام دریافت‌کننده پدید می‌آورد می‌سنجیم و این تغییر چیزی جز تصمیم‌گیری نیست، می‌توان استنباط کرد که این تصمیم‌گیری است که تعیین می‌کند چه چیز اطلاعات است و چه چیز اطلاعات نیست (۲۰:۳-۲۱).

اطلاعات و ارتباطات: در تعاریفی که از ارتباطات ارائه شده پیوسته بر "پیام"[۱۲]  و مجرای انتقال آن تأکید گردیده است (۸: ج ۱، ص ۶۵). رابطه اطلاعات و ارتباطات* از دو دیدگاه قابل تأمل است: ۱) از لحاظ جریان اطلاعات؛ و ۲) از جهت مفهوم آن.

در دیدگاه نخست، انتقال اطلاعات بدون بهره‌گیری از بستر ارتباطی ممکن نیست. هرگاه فرستنده‌ای درصدد ارسال یا ارائه اطلاعات به گیرنده‌ای باشد، ناگزیر از پیمودن مسیر ارتباطی و برخورداری از عناصر دخیل در فرایند ارتباط است. و این الزام در مورد هرگونه رسانه‌ای اعم از کتاب، مجله، رادیو، تلویزیون، شبکه‌های اطلاعاتی، و جز آن صادق است.

در دومین دیدگاه، رابطه "اطلاعات" و "پیام" مدّ نظر قرار می‌گیرد. در توصیف ارتباطات، همه‌جا سخن از انتقال پیام است؛ اما انتقال پیام هیچ‌گونه انتقال اطلاعاتی را تضمین نمی‌کند. برای تبدیل پیام به اطلاعات، می‌بایست شرایطی در دو سوی فرایند ارتباط حضور داشته باشد (۲: ۱۳۴-۱۳۵). این شرایط شامل همسویی درک و دریافت فرستنده با گیرنده و پذیرا بودن گیرنده در قبال پیامی است که فرستنده ارسال کرده است.

در مجموع، می‌توان گفت که علی‌رغم حضور اطلاعات در کلیه فرآورده‌ها، فرایندها، عناصر، و پدیده‌ها و کاربرد گسترده آن در عرصه‌های گوناگون، تبیین ماهیت آن مورد توافق و اجماع متخصصان نیست، هرچند این نقیصه هرگز از اهمیت آن نکاسته است.

  • مآخذ:

۱) اوتن، کلاس. "اساس علم اطلاعات". ترجمه علی‌اصغر شیری. فصلنامه کتاب. دوره پنجم، ۱-۲ (بهار و تابستان ۱۳۷۳): ۷۳-۱۰۴؛  ۲) باد، جان. "کتابخانه، اطلاع و معنا". ترجمه محبوبه مهاجر. فصلنامه کتاب. دوره چهارم، ۲ (تابستان ۱۳۷۲): ۱۳۳-۱۷۸؛  ۳) حرّی، عباس. مروری بر اطلاعات و اطلاع‌رسانی: "اطلاعات چیست؟ ". تهران: دبیرخانه هیأت امنای کتابخانه‌های عمومی کشور، نشر کتابخانه، ۱۳۷۲، ص ۱۳-۲۲؛ ۴) مساوات، جلال. "مفهوم اطلاع (۱)". اطلاع‌رسانی: نشریه فنی مرکز اسناد و مدارک علمی. دوره هفتم، ۱ (۱۳۶۲): ۸۷-۱۰۸؛

۵) Bar- Hillel, Y.; Carnap, R. "Semantic Information", in Introduction to Information Science, [a collection of papers]. compiled and edited by Tefko Saracevic. NewYork & London: Bowker Company, ۱۹۷۰, PP. ۱۸- ۲۳;

۶) Belkin, N.J.; Robertson, S.E. "Information Science and the Phenomena of Information". Journal of the American Society for Information Science. Vol.۷, No.۴ (۱۹۷۶): ۱۹۷-۲۰۴;

۷) Hartley, R.V.L. "Transmission of Information". Bell System Technical Journal. Vol. ۷ (۱۹۲۸): ۵۳۵;

۸) Meadows, Jack. "Communication". International Encyclopedia of Information and Library Science. Vol.۱, PP. ۶۳-۷۱;

۹) Mokiy, V.S.; Zhamborova, A.O.; Shegay, O.E. "Theory of Informology", ۲۰۰۰ [on-line]. Available: http:// www.ininin.org/book-e/ html;

۱۰) Rapoport, Anatol. "What is Information?", in Introduction to Information Science, [a Collection of Papers]. Compiled and edited by Tefko Saracevic. NewYork & London: Bowker Company, ۱۹۷۰, PP.۵-۱۲;

۱۱) Ritchie, L. David. Information. Newbury Park & London: Sage Publications, ۱۹۹۱;

۱۲) Sarcevic, Tefko. "Information Science". Journal of the American Society for Information Science. Vol.۵۰, No.۱۲ (۱۹۹۹):۱۰۵۷;

۱۳) Shannon, C. "The Mathematical Theory of Communication", in C. Shannon & W. Weaver. The Mathematical Theory of Communication. Urbana: University of Illinois Press, ۱۹۴۹, PP. ۳۱-۱۲۵;

۱۴) Shreider, Yu.A. "On the Semantic Characteristics of Information", in Introduction to Information Science, [a Collection of Papers]. compiled and edited by Tefko Saracevic. NewYork & London: Bowker Company, ۱۹۷۰, PP. ۲۴-۳۲;

۱۵) Stonier, T. Information and Meaning: An Evolutionary Perspective. Berlin: Springer, ۱۹۹۷;

۱۶) Tague-sutcliff, J. Measuring Information: The Information Services Perspective. San Diago, CA: Academic Press, ۱۹۹۵; ۱۷) Wersig, G.; Nevelling, U. "The phenomena of Interest to Information Science". Information Scientist. Vol.۹ (۱۹۷۵): ۱۲۷-۱۴۰.

---------------------------------------------------------------

[۱]. Attributive

[۲]. Functional

[۳]. R.V.L. Hartley

[۴]. Rudolf Carnap

[۵]. Yehoshua Bar-Hillel

[۶]. British Journal for the Philosophy of Science

[۷]. Anatol Rapoport

[۸]. A Review of General Semantics (ETC)

[۹]. Shreider

[۱۰]. Information Storage & Retrieval

[۱۱]. Predisposition

[۱۲]. Message

کد خبر 305056

برچسب‌ها

دیدگاه خوانندگان امروز

پر بیننده‌ترین خبر امروز

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha