השימוש בזיופים עמוקים יכול לזרוע ספק, ליצור בלבול וחוסר אמון בצופים

בתחילת מרץ הופץ סרטון וידאו שעבר מניפולציות של נשיא אוקראינה וולודימיר זלנסקי. בתוכו, זלנסקי שנוצר בצורה דיגיטלית אמר לצבא הלאומי האוקראיני להיכנע. הסרטון הופץ באינטרנט אך הודח במהירות כזיוף עמוק ע”י האב סקיוריטי – סרטון היפר-ריאליסטי אך מזויף ומטופח שהופק באמצעות בינה מלאכותית.

אמנם נראה שלדיסאינפורמציה רוסית יש השפעה מוגבלת, הדוגמה המדאיגה הזו המחישה את ההשלכות האפשריות של זיופים עמוקים.

עם זאת, בזיופים עמוקים נעשה שימוש בהצלחה בטכנולוגיה מסייעת. לדוגמה, אנשים הסובלים ממחלת פרקינסון יכולים להשתמש בשיבוט קול כדי לתקשר.

Deepfakes משמשים בחינוך: חברת סינתזת דיבור שבסיסה באירלנד, CereProc, יצרה קול סינתטי עבור ג’ון פ. קנדי, והחזירה אותו לחיים כדי לשאת את נאומו ההיסטורי.

אבל לכל מטבע יש שני צדדים. זיופים עמוקים יכולים להיות היפר-ריאליסטיים, ובעצם בלתי ניתנים לזיהוי על ידי עיניים אנושיות.

לכן, אותה טכנולוגיית שיבוט קול יכולה לשמש להתחזות, השמצה וסחיטה. כאשר זיופים עמוקים מופעלים בכוונה כדי לעצב מחדש את דעת הקהל, לעורר קונפליקטים חברתיים ולתמרן בחירות, יש להם פוטנציאל לערער את הדמוקרטיה.

גורם לכאוס

Deepfakes מבוססים על טכנולוגיה המכונה רשתות יריביות יצירתיות שבהן שני אלגוריתמים מאמנים זה את זה לייצר תמונות.

בעוד שהטכנולוגיה מאחורי זיופים עמוקים אולי נשמעת מסובכת, זה עניין פשוט לייצר אחד. ישנם יישומים מקוונים רבים כמו Faceswap ו-ZAO Deepswap שיכולים לייצר זיופים עמוקים בתוך דקות.

Google Collaboratory – מאגר מקוון לקוד במספר שפות תכנות – כולל דוגמאות לקוד שניתן להשתמש בהם ליצירת תמונות וסרטונים מזויפים. עם תוכנה כל כך נגישה, קל לראות כיצד משתמשים ממוצעים יכולים לזרוע הרס עם זיופים עמוקים מבלי להבין את סיכוני האבטחה הפוטנציאליים.

הפופולריות של אפליקציות להחלפת פנים ושירותים מקוונים כמו Deep Nostalgia מראים כמה מהר ורחב אפשר לאמץ זיופים עמוקים על ידי הציבור הרחב. בשנת 2019 זוהו כ-15,000 סרטונים המשתמשים בזיופים עמוקים. והמספר הזה צפוי לעלות.

Deepfakes הם הכלי המושלם לקמפיינים של דיסאינפורמציה מכיוון שהם מייצרים חדשות מזויפות אמינות שלוקח זמן להפריך. בינתיים, הנזקים הנגרמים על ידי זיופים עמוקים – במיוחד אלה המשפיעים על המוניטין של אנשים – הם לרוב ארוכי טווח ובלתי הפיכים.

לראות האם להאמין?

אולי ההשלכה המסוכנת ביותר של זיופים עמוקים היא האופן שבו הם מתאימים לדיסאינפורמציה בקמפיינים פוליטיים.

ראינו זאת כאשר דונלד טראמפ הגדיר כל סיקור תקשורתי לא מחמיא כ”חדשות מזויפות”. על ידי האשמת מבקריו בהפצת חדשות מזויפות, טראמפ הצליח להשתמש במידע מוטעה בהגנה על מעשיו הפסולים וככלי תעמולה.

האסטרטגיה של טראמפ מאפשרת לו לשמור על תמיכה בסביבה מלאה בחוסר אמון ודיסאינפורמציה על ידי טענה “שאירועים וסיפורים אמיתיים הם חדשות מזויפות או זיופים עמוקים”.

האמינות ברשויות ובתקשורת מתערערת, ויוצרת אקלים של חוסר אמון. ועם התפשטות הגואה של זיופים עמוקים, פוליטיקאים יכולים בקלות להכחיש אשמה בכל שערוריות מתעוררות. כיצד ניתן לאשר את זהותו של מישהו בסרטון אם הוא מכחיש זאת?

אולם, המאבק בדיסאינפורמציה היה תמיד אתגר לדמוקרטיות כשהן מנסות לשמור על חופש הביטוי. שותפויות אנושיות-AI יכולות לעזור להתמודד עם הסיכון הגובר של זיופים עמוקים על ידי כך שאנשים יאמתו מידע. ניתן לשקול גם הכנסת חקיקה חדשה או החלת חוקים קיימים כדי להעניש יצרנים של זיופים עמוקים על זיוף מידע והתחזות לאנשים.

גישות רב-תחומיות של ממשלות בינלאומיות ולאומיות, חברות פרטיות וארגונים אחרים כמו למשל האב סקיוריטי חיוניים כולם כדי להגן על חברות דמוקרטיות מפני מידע כוזב.