نظریه ارتباطات شانون

9 دی 1403 - خواندن 5 دقیقه - 59 بازدید

 نظریه ارتباطات شانون، که به نام کلود شانون و همکارش وارن ویور شناخته می شود، یکی از مهم ترین و تاثیرگذارترین نظریه ها در زمینه ارتباطات و انتقال اطلاعات است. این نظریه در سال 1948 توسط شانون در مقاله ای با عنوان "نظریه ریاضی ارتباطات" ارائه شد و به بررسی نحوه انتقال اطلاعات از یک منبع به یک مقصد می پردازد.مدل ارتباطی شانون و ویورمدل شانون و ویور شامل چهار جزء اصلی است:

  1. منبع اطلاعات: جایی که پیام تولید می شود.
  2. فرستنده: تبدیل پیام به سیگنال برای ارسال.
  3. کانال: مسیر انتقال سیگنال.
  4. گیرنده: دریافت سیگنال و تبدیل آن به پیام.

این مدل به وضوح نشان می دهد که یک پیام از منبع اطلاعاتی نشات می گیرد، سپس توسط فرستنده به سیگنال تبدیل می شود و از طریق کانال به گیرنده منتقل می گردد. در این فرآیند، نویز (اختلال) می تواند بر کیفیت سیگنال تاثیر بگذارد و باعث تحریف پیام شود


.قضایای شانون 


شانون دو قضیه اصلی را در نظریه خود مطرح کرد:

  • آنتروپی: کمترین نرخ فشرده سازی اطلاعات یک منبع تصادفی برابر با آنتروپی آن منبع است. این بدان معناست که نمی توان دنباله خروجی یک منبع اطلاعات را با نرخی کمتر از آنتروپی آن ارسال کرد.
  • .ظرفیت کانال: حداکثر نرخ ارسال اطلاعات بر روی یک کانال مخابراتی که در آن امکان بازیابی اطلاعات با احتمال خطای قابل قبول وجود دارد، ظرفیت کانال نامیده می شود. ارسال اطلاعات با نرخی بیشتر از ظرفیت کانال منجر به خطا خواهد شد24

نویز و اختلالشانون بر این نکته تاکید داشت که نویز یکی از عوامل اصلی در ارتباطات است که می تواند باعث اختلال در انتقال پیام ها شود. او معتقد بود که ارتباط باید به صورت مفهومی واحد دیده شود، بدون توجه به روش یا ابزارهای مورد استفاده (مانند تلفن، تلویزیون یا رادیو)؛ زیرا همه پیام ها در معرض خطر نادرستی قرار دارند


.کاربردها و تاثیراتنظریه شانون نه تنها در زمینه های مخابراتی بلکه در علوم رایانه، پردازش زبان طبیعی، و حتی روانشناسی نیز کاربرد دارد. این نظریه به عنوان پایه ای برای توسعه فناوری های نوین ارتباطی شناخته می شود و تاثیر عمیقی بر نحوه طراحی سیستم های ارتباطی مدرن داشته است


.در نهایت، نظریه شانون و ویور به عنوان یکی از بنیادی ترین نظریه ها در زمینه ارتباطات شناخته شده و همچنان در مطالعات مختلف مورد استفاده قرار می گیرد.


تعریف آنتروپی 

آنتروپی به طور خاص نشان دهنده مقدار اطلاعاتی است که از یک پیام می توان استخراج کرد. به عبارت دیگر، آنتروپی معیاری برای سنجش میزان اطلاعات موجود در یک پیام است و هرچه پیام بیشتر تصادفی باشد، آنتروپی آن بیشتر خواهد بود. این بدان معناست که اگر یک پیام دارای ساختار مشخصی باشد و پیش بینی پذیر باشد، اطلاعات کمتری نسبت به یک پیام تصادفی دارد


.چرا آنتروپی مهم است؟

  1. .اندازه گیری اطلاعات: آنتروپی کمک می کند تا بفهمیم چه مقدار اطلاعات از یک پیام قابل استخراج است. برای مثال، اگر پیام «آآآآآ» را در نظر بگیریم، این پیام به نظر ساختار یافته می آید اما حاوی اطلاعات کمی است زیرا تکرار یک حرف مشخص است. در مقابل، پیام «الفبا» که شامل حروف مختلف است، حاوی اطلاعات بیشتری است زیرا تنوع بیشتری دارد1
  2. .کاهش عدم قطعیت: با دریافت یک پیام جدید، عدم قطعیت ما درباره آن موضوع کاهش می یابد. به عبارت دیگر، هرچه احتمال وقوع یک رخداد کمتر باشد، اطلاعات حاصل از آن بیشتر خواهد بود. بنابراین آنتروپی و اطلاعات به هم وابسته اند؛ افزایش آنتروپی به معنای افزایش عدم قطعیت و در نتیجه افزایش مقدار اطلاعات دریافتی است23

محاسبه آنتروپی

آنتروپی معمولا با استفاده از توزیع احتمال محاسبه می شود. فرمول محاسبه آنتروپی به صورت زیر است:

H(X)=−∑i=1np(xi)log⁡bp(xi)H(X)=−i=1∑np(xi​)logbp(xi​)

که در آن H(X)H(X) آنتروپی متغیر تصادفی XX، p(xi)p(xi​) احتمال وقوع هر رویداد و bb پایه لگاریتم (معمولا 2) است


.جمع بندی 

آنتروپی شانون ابزاری کلیدی برای اندازه گیری و تحلیل اطلاعات در نظریه ارتباطات است. این مفهوم نه تنها در ارتباطات بلکه در زمینه های مختلف علمی مانند علوم داده و پردازش زبان طبیعی نیز کاربرد دارد. با فهم بهتر آنتروپی، می توانیم سیستم های ارتباطی موثرتری طراحی کنیم و از داده ها بهره برداری بهتری داشته باشیم.