אינפורמציה הדדית

בערך זה
נעשה שימוש
בסימנים מוסכמים
מתחום המתמטיקה.
להבהרת הסימנים
ראו סימון מתמטי.

אנטרופיות של שני משתנים בעלי אינפורמציה משותפת

בתורת ההסתברות בתורת האינפורמציה, האינפורמציה ההדדית (או המידע ההדדי[1]) (Mutual information) של שני משתנים אקראיים הוא מדד לתלות ההדדית בין שני המשתנים. ליתר דיוק, היא מכמתת את "כמות המידע" המתקבלת לגבי משתנה אקראי אחד על ידי צפייה במשתנה האקראי השני.

האינפורמציה ההדדית בין שני משתנים דיסקרטיים ו- מוגדרת כ:

כאשר היא ההתפלגות המשותפת שלהם, ו- היא ההתפלגות של כל אחד מהמשתנים בנפרד, בהתאמה.

במקרה של משתנים רציפים, הסכום מוחלף באינטגרל כפול:

כאשר במקרה זה היא הצפיפות המשותפת שלהם, ו- היא הצפיפות של כל אחד מהמשתנים בנפרד, בהתאמה.

למען הדיוק יש להגדיר גם את בסיסי הלוגריתמים בביטויים שלעיל. לרוב משתמשים בבסיס 2 או בבסיס , ומציינים את הבסיס מראש.

הסבר אינטואיטיבי

[עריכת קוד מקור | עריכה]

אינטואיטיבית, האינפורמציה ההדדית מראה עד כמה ידע על תוצאת מלמדת על תוצאת :

  1. אם האינפורמציה ההדדית היא 0, המשתנים בלתי תלויים. המשתנה המקרי אין מספק כל אינפורמציה על המשתנה המקרי ולהפך.
  2. בקיצוניות השנייה, אם המשתנה המקרי הוא פונקציה חד-חד ערכית של המשתנה המקרי (לדוגמה, אם ), אז האינפורמציה ההדדית היא האנטרופיה של כ"א מהמשתנים, כלומר . מקרה פרטי הוא אשר שני המשתנים המקריים ו זהים.

הקשר לגדלים אחרים בתורת האינפורמציה

[עריכת קוד מקור | עריכה]

אפשר לקשר בין האינפורמציה ההדדית לאנטרופיה ולאנטרופיה מותנית בצורה הבאה:

  1. אי שליליות: מידע הדדי הוא תמיד לא שלילי.
  2. סימטריות: מידע הדדי הוא סימטרי, כלומר המידע ההדדי בין המשתנים X ו-Y זהה למידע ההדדי בין המשתנים Y ו-X.
  3. יחידות: מידע הדדי הוא אוניטרי, כלומר המידע ההדדי בין משתנה לעצמו שווה לערך המקסימלי האפשרי של המידע ההדדי.
  4. מונוטוניות: המידע ההדדי עולה באופן מונוטוני, כלומר אם משתנה אחד הופך להיות תלוי יותר במשתנה אחר, המידע ההדדי בין שני המשתנים גדל.
  5. בלתי משתנה תחת טרנספורמציות היפוכות: מידע הדדי הוא בלתי משתנה תחת טרנספורמציות היפוכות, כלומר הוא נשאר ללא שינוי כאשר המשתנים עוברים טרנספורמציה על ידי פונקציה הניתנת להפיכה.
  6. תת-תוסף: מידע הדדי הוא תת-תוסף, כלומר המידע ההדדי בין שני משתנים קטן או שווה לסכום המידע ההדדי בין כל אחד מהמשתנים למשתנה שלישי.
  7. סכום אפס למשתנים בלתי תלויים: אם שני משתנים בלתי תלויים, המידע ההדדי ביניהם שווה לאפס.

קישורים חיצוניים

[עריכת קוד מקור | עריכה]

הערות שוליים

[עריכת קוד מקור | עריכה]