1

לחצו להורדת הפרק (MP3)

דיפ-פייקס – תמונות, סרטונים וקטעי אודיו מזוייפים המיוצרים על ידי בינה מלאכותית – מחוללים מהפכה שקטה בעולם ייצור התוכן. אבל לצד היתרונות של הטכנולוגיה הזו, יש לה פוטנציאל לזרוע כאוס, פחד ואי-אמון באמצעות הרשתות החברתיות. למעשה, השבוע חשפה פייסבוק רשת של פרופילים מזוייפים שתמונותיהם הן כולן דיפ-פייק… אז איך אפשר לזהות דיפ-פייק עוד לפני שהוא הופך לויראלי?

האזנה נעימה,

רן.

[ratemypost]

לרשימת הפרקים המלאה


הרשמה לפודקאסט:

רשימת תפוצה במיילiTunes | אפליקציית ‘עושים היסטוריה’ לאנדרואיד | RSS Link | פייסבוק | טוויטר


פנדה מזרנים

פודקאסט עושים ת'מוות


דיפ פייקס (Deep Fakes) חלק ב’ – אדם נגד מכונה

בפרק הקודם הכרנו את GAN: טכנולוגיית בינה מלאכותית שפותחה אך לפני חמש שנים בלבד, וכבר מאיימת לחולל מהפכה דרמטית באופן שבו אנחנו יוצרים תוכן במגוון מדיות: מתמונות וסרטונים ועד אודיו וטקסט. GAN מבוססת על הרעיון של אימון נגד יריב (Adversarial Training, בלעז). שתי רשתות נוירונים מתמודדות זו נגד זו: אחת מייצרת מידע מזויף – למשל, תמונות של פרצופים אנושיים – והשנייה מנסה לזהות את הזיופים האלה ולהבדיל בינם ובין צילומים של פנים אמיתיות. התוצאה המתקבלת היא בינה מלאכותית שמסוגלת להפיק זיופים – מה שפעם היינו מכנים ‘אפקטים מיוחדים’ והיום קוראים להם ‘דיפ-פייקס’ – באיכות חסרת תקדים, ובשבריר מהזמן והעלות שהיו נדרשים לצורך כך עד לפני שנים ספורות. 

 

בשלהי 2017 החלה הטכנולוגיה הזו, שמקורה באקדמיה, לזלוג אל הציבור הרחב – והתוצאה הכמעט צפויה הייתה מבול של סרטונים פורנוגרפיים שבהם הוחלפו פניהן של השחקניות המקוריות באלה של גל גדות, סקרלט גו’הנסן ואחרות, וגם סצינות מסרטים רגילים שבהם הוחלפו השחקנים המקוריים בדמויות אחרות – למשל, ג’ים קארי מחליף את ג’ק ניקולסון ב’הניצוץ’, סילבסטר סטאלונה מחליף את ארנולד שווארצנגר ב’שליחות קטלנית 2′ וכדומה. 

 

אחרי הגל הראשון של סרטוני הפורנו והסלבריטאים, החלו להופיע הסרטונים הפוליטיים. מישהו הלביש את הפנים של היטלר על נאום של נשיא ארגנטינה, ואת פוטין וטראמפ על דמותם של ד”ר Evil ומיני-מי מסדרת הסרטים אוסטין פאוורס. אני חושב שאתם יכולים לנחש לבד מי זכה להיות ד”ר EVIL ומי המיני-מי שלו… הצליח במיוחד סרטון שבו נראה הנשיא לשעבר ברק אובמה מזהיר את הציבור מפני סירטוני דיפ-פייק ומפציר בהם שלא להאמין לכל מה שהם רואים ביו-טיוב. רק באמצע הסרטון אנחנו מגלים שלמעשה מדובר בדיפ-פייק, ושבפיו של אובמה הושתלו מילים שאומר החקיין והקומיקאי ג’ורדן פיל. 

 

הסרטונים האלה גרמו למספר לא מבוטל של פרשנים ומומחים מהאקדמיה להתריע מפני הסכנה שנשקפת למדינות דמוקרטיות כשהרשתות החברתיות יוצפו בדיפ-פייקס מכל סוג: תמונות, סרטונים והקלטות אודיו של מנהיגים ואנשי ציבור עושים ואומרים דברים שמעולם לא עשו ולא אמרו. בבחירות הקודמות בארצות הברית היו אנשים שהושפעו מדיווחי עיתונות מזויפים – פייק ניוז – כמו, למשל, הסיפור על רשת הפדופיליה שמנהלים בכירים במפלגה הדמוקרטית ממרתף של פיצריה בוושינגטון. זה נשמע כמו סיפור הזוי, אבל כנראה שהוא היה מספיק משכנע בשביל לגרום לפחות לחמום-מוח אחד לקחת רובה ציד, להתפרץ לפיצריה המדוברת, לירות באוויר ולדרוש לבדוק במו עיניו את הנעשה במרתף. דמיינו לעצמכם את אותו הסיפור, רק בשילוב סרטון וידאו מזויף שבו נראית הילרי קלינטון מתעללת בילדים בעצמה. 

 

אני מוכרח להודות שאותי, באופן אישי, הטיעון הזה לא כל כך משכנע. אפשר לעבוד על חלק מהאנשים חלק מהזמן – אבל לתפיסתי, רובנו לא מספיק טיפשים כדי להאמין לסרטונים הזויים שכאלה, משכנעים ככל שיהיו – ובמיוחד אם אנחנו יודעים שאפשר לפברק אותם בקלות יחסית. 

 

עם זאת, יש יוצא מן הכלל לעניין הזה והוא הפוטנציאל ההרסני של דיפ-פייקס במצבים של לחץ, מצוקה ובלבול גדול. הזכרו במהומות שפרצו במגזר הערבי באוקטובר 2000, או אפילו במחאה של העדה האתיופית ב-2019: בשני המקרים המתח בין השוטרים והמפגינים הרקיע שחקים, עד כדי ירי באש חיה, הרוגים ופצועים במקרה של מהומות אוקטובר. עכשיו דמיינו לעצמכם מצב שבו בשיא העימותים, כשהרחובות בוערים והאיבה תוססת על סף האלימות – מישהו מעלה לפייסבוק סרטון שבו רואים את מפכ”ל המשטרה יורה באחד המפגינים מטווח קצר: ממש מוציא אותו להורג בדם קר. יחלפו כמה שעות עד שנגלה שמדובר בדיפ-פייק – אבל זה יכול להיות מאוחר מדי. סרטון פרובוקטיבי כזה שיגיע בעיתוי כל כך דרמטי, עלול לגרום לסיר המבעבע של אלימות ופחד לעלות על גדותיו ולהפוך הפגנה קולנית אבל נטולת אלימות – למרחץ דמים. אפשר אפילו לשרטט תסריט אחר שבו פוליטיקאי ציני משחרר סרטון מזויף כזה לרשת שעות ספורות לפני סגירת הקלפיות כדי להשפיע על תוצאות הבחירות. היו מקרים מעולם. 

 

ישנה גם סכנה נוספת, אולי אפילו חמורה יותר, שנשקפת מדיפ-פייקס. כשמדובר בסרטון או תמונה של פוליטיקאי מפורסם, סביר מאד להניח שזמן קצר אחרי שסרטון כזה יעלה לרשת כבר יהיו כמה עשרות מומחים שיעוטו עליו, ינתחו אותו מכל זווית אפשרית ויבדקו את מידת האמינות שלו. למרבה הצער, כשמדובר בי ובכם, האנשים הרגילים – אף אחד לא הולך לערוך בדיקה מושקעת כל כך לסרטון כזה. כל מה שצריך כדי להכפיש מישהו באופן שכזה הוא כמה תמונות או סרטונים שאפשר למצוא בקלות בפייסבוק ובאינסטגרם של כל אחד מאיתנו. למשל, אם אני בעל פיצריה במרכז הכרמל בחיפה ומישהו רוצה להרוס לי את העסק, כל מה שהוא צריך לעשות זה להעלות לרשת סרטון דיפ-פייק שבו נראים עכברושים וירטואליים מטיילים על השולחנות בלילה. אם האקסית שלי רוצה להתנקם בי אחרי פרידה כואבת, היא יכולה לשחרר הקלטה מזויפת שלי מתוודה על עבירות פדופיליות. ברגע ש”עדות” מפלילה כזו עולה לאוויר, נטל ההוכחה שמדובר בזיוף נמצא כעת עלי, הקורבן – וברוב המקרים, לקורבנות לא תהיה גישה למומחים שיוכלו להפריך את הזיופים האלה. 

 

לזיופים מכפישים שכאלה עשויות להיות השלכות הרסניות על חייהם של אנשים, כמו שאפשר ללמוד מסיפור של רנה איוּב (Rana Ayyub), עיתונאית הודית ממוצא מוסלמי. רנה היא עיתונאית חוקרת, ופעילה במיוחד בכל הנוגע לאונס ואלימות כלפי נשים, נושא כאוב במיוחד בהודו. בראשית 2018 נאנסה ונרצחה בחבל קשמיר ילדה מוסלמית בת שמונה. החשודים ברצח היו הינדים, ולכן כשהתייצבה רנה לצד משפחת הקורבן היו פוליטיקאים שהאשימו אותה שהיא מוטה נגד ההינדים ובעד המוסלמים. 

למחרת כבר החלו מופצים ברשתות החברתיות צילומי מסך מזויפים שכאילו נלקחו מהוואטסאפ שלה, שבהם נכתב – ‘אני שונאת את הודו’ ו-‘אני אוהבת את פקיסטן’. רנה לא התרגשה: כעיתונאית משופשפת, היא הייתה רגילה לדברים האלה. היא שיחררה הודעה בטוויטר שבה הבהירה שמדובר בזיוף, והתכוונה להמשיך בחייה.

 

אבל למחרת, כשישבה בבית קפה, החלו לזרום אל הטלפון שלה מאות הודעות בתוך דקות. כשפתחה אחת מהן, ראתה לחרדתה שמדובר בסרטון פורנוגרפי – בכיכובה. מישהו יצר דיפ-פייק והלביש את פניה של רנה על דמותה של שחקנית פורנו. רנה, כאמור, כבר הייתה מנוסה בזיופים מכפישים – אבל זה היה משהו אחר. בהודו השמרנית והפוריטנית, השתתפות בסרטון פורנוגרפי היא ביג דיל. ביג ביג דיל. רנה ראתה מיד שמדובר בזיוף: האישה בסרטון היה צעירה ממנה בכמה וכמה שנים, והשיער שלה היה חלק בעוד שהשיער של רנה מתולתל – אבל זה לא משנה. הסרטון הפך לויראלי ברשתות החברתיות והופץ בעשרות מיליוני עותקים, ורנה לא ידעה את נפשה. כך כתבה בטור אישי שהופיע ב Huffington Post: 

 

“הייתי הרוסה. לא יכולתי להראות את פני ברחוב. את יכולה לקרוא לעצמך עיתונאית, את יכולה לקרוא לעצמך פמיניסטית – אבל באותו הרגע, לא יכולתי לראות דבר מבעד להשפלה.”

 

It was devastating. I just couldn’t show my face. You can call yourself a journalist, you can call yourself a feminist but in that moment, I just couldn’t see through the humiliation.

 

רנה קיבלה זרם אדיר ועכור של הודעות גנאי וקללות מכל סוג. היא סגרה את חשבון הפייסבוק שלה, אבל מישהו הדליף לרשת את מספר הטלפון האישי שלה והקללות זרמו גם לשם. 

 

“הלכתי לבית חולים עם פרפורים בלב וחרדה, והרופא נתן לי תרופת הרגעה. הקאתי, לחץ הדם שלי הרקיע שחקים וכל גופי הגיב בפראות לחרדה וללחץ.”

 

I was sent to the hospital with heart palpitations and anxiety, the doctor gave me medicine. But I was vomiting, my blood pressure shot up, my body had reacted so violently to the stress.

 

את שיא ההשפלה חווה רנה כשהגיעה לתחנת המשטרה להגיש תלונה על יוצר הסרטון. 

 

“היו שם בערך שישה גברים בתחנת המשטרה. הם החלו לצפות בסרטון לנגד עיני. יכולתי לראות את החיוכים המלגלגים על פניהם. תמיד חשבתי שאף אחד לא יכול להזיק לי או להפחיד אותי – אבל האירוע הזה השפיע עלי באופן שלא יכולתי לצפות. 

האירוניה הגדולה היא שבערך שבוע לפני שהסרטון הזה עלה לאינטרנט, שמעתי את אחד העורכים בעיתון שלי מדבר על הסכנות של דיפ-פייקס בהודו. אפילו לא ידעתי מה זה, אז גיגלתי את זה. אחרי שבוע זה קרה לי.”

 

There were about six men in the police station, they started watching the video in front of me. You could see the smirks on their faces.

I always thought no one could harm me or intimidate me, but this incident really affected me in a way that I would never have anticipated.

The irony is, about a week before the video was released, I heard an editor talking about the dangers of deepfake in India. I didn’t even know what it was so I googled it. Then one week later it happened to me.

 

הסכנות הפוטנציאליות שהעלתי מדגימות את הצורך הדחוף למצוא דרך אמינה לזהות זיופים שכאלה, ובשאיפה – שיטת זיהוי ממוחשבת ואוטומטית, כזו שתאפשר ליוטיוב, פייסבוק ודומותיהן לתייג תמונות וסרטונים כדיפ-פייק כבר מהרגע הראשון שהם עולים לרשת. השבוע, בעודי כותב את הפרק הזה ממש – התפרסמה ידיעות לפיהן פייסבוק חשפה רשת של פרופילים מזוייפים, שכנראה הופעלה על ידי סוכנים זרים מחוץ לארצות הברית, שדחפה ידיעות חדשותיות שתמכו בדונלד טראמפ. הפרופילים המזוייפים האלה עשו שימוש בתמונות פרופיל תוצרת דיפ-פייקס שנראות לעין האנושית משכנעות כמו כל תמונת פרופיל אחרת שתוכלו למצוא ברשת החברתית. 

 

איך הצליחו חוקריה של פייסבוק לגלות שמדובר בתמונות פרופיל דיפ-פייקס? ובכן, נכון להיום אפילו הדיפ-פייקס המשכנעים והמוצלחים ביותר מכילים שגיאות וטעויות שאני ואתם לא נבחין בהן, כנראה – אבל מומחים מיומנים יכולים לגלות. למשל, בתמונות של פרצופים מזוייפים אפשר למצוא כמעט תמיד איזורים שבהם העור או השיער מקבלים גוון או טקסטורה לא טבעיים, או עצמים כמו עגילים וטבעות שמופיעים במקומות לא הגיוניים. בסרטונים, מבנה הגוף של השחקן המקורי לא תמיד תואם את מבנה הפנים שהתוכנה מנסה להלביש עליו, והתוצאה היא ‘תפירה’ גסה ולא מספיק מציאותית בנקודת החיבור בין הפנים הוירטואליות והאמיתיות. הטעויות האלה הן לרוב תוצר לוואי של בחירה לא נכונה של הדוגמאות שהזייפנים מזינים לתוך רשתות הנוירונים המלאכותיים, כדי ללמד אותן להפיק זיופים משכנעים. 

למשל, ביוני 2018 דיווחו מספר חוקרים מאוניברסיטת אלבני (Albany) שבארה”ב שמצאו דרך לזהות סרטוני דיפייק באמצעות בחינת תדירות מצמוץ העיניים של הדמויות בסרטונים. מסתבר שרוב הדוגמאות שמקבלות רשתות הנוירונים במהלך שלב האימון שלהן הן של פרצופים עם עיניים פקוחות – שזה הגיוני, כי רובנו לא מצטלמים בעיניים סגורות. על כן, סרטוני הדיפייק שהן מייצרות מכילים מעט מאד מצמוצים – ולעיתים אפילו ללא מצמוצים כלל. החוקרים פיתחו כלי שמסוגל למדוד את תדירות המצמוצים של דמות בסרטון וכך להכריע אם מדובר בדמות אמיתית או מזוייפת. ישנן מספר לא מבוטל של טעויות פוטנציאליות כאלה, שאפשר לנסות לחפש בדיפ פייקס: למשל, עיוותים שנוצרים כשהתוכנה מנסה ‘להלביש’ פנים של אדם שצולם מהחזית, עם הגוף כלפי המצלמה – על דמות של אדם שמצולם מהצד או שהראש שלו מוטה מעט שמאלה או ימינה, או אפילו הבדלים בגוון העור שנוצרים כשדם עובר בנימים הדקים שמתחת לשכבות העור העליונות. אלו פרטים זערורים שהעין האנושית אינה מסוגלת לתפוס, אבל ניתוח ממוחשב של הסרטון יכול לגלות. 

 

לרוע המזל, מפתחי תוכנות הדיפ-פייקס ערים לנקודות התורפה האלה לא פחות מהחוקרים שמנסים לנצל אותן – ובכל פעם שמחקר חדש חושף דרך לזהות דיפ-פייקס, הם מעדכנים ומשפרים את התוכנות שלהן כדי לסגור את הפירצה. אם נבחן תמונות וסרטונים מזוייפים שנוצרו ב-2019 למשל, אפשר לראות בברור שהם אמינים ומוצלחים יותר מאלה של שנה קודם לכן. למשל, שלושה חודשים בלבד לאחר שיצא לאור המחקר אודות זיהוי דיפ-פייקס באמצעות תדירות המצמוצים של הדמויות – כבר הופיע הדור הבא של תוכנות הדיפייק שהיו מצויידות ביכולת לזייף גם את מצמוצי העיניים בצורה משכנעת – והפכו את הכלי המקורי של החוקרים לחסר תועלת. 

למעשה, אפשר לעשות הקבלה מעניינת מאד בין המאבק האנושי הזה בין הזייפנים והחוקרים שמנסים לחשוף אותם – למאבק הוירטואלי שמתרחש בתוך קרביה הממוחשבים של מערכת GAN. כפי שהסברתי בפרק הקודם, ההצלחה של GAN מושתת על העקרון של משחק ‘שוטרים וגנבים’ בין הרשת הגנרטיבית והרשת הדיסקרימינטורית – ובאותו האופן שבו המשחק הזה מאפשר לנו ליצור רשת גנרטיבית מוצלחת מאד, כך סביר להניח שבאופן אירוני הניסיון לאתר נקודות תורפה בטכנולוגיה הזו רק יגרום לה להשתפר, ולזיופים להפוך משכנעים יותר. אז מה עושים?… 

 

ישנן שתי גישות עקרוניות לפתרון הבעיה הזו. 

הראשונה היא לנסות לפתור את הבעיה הזו עוד לפני שנוצרה בכלל. למשל, לצייד את כל המצלמות בטכנולוגיה שמטמיעה בתוך התמונות והסרטונים, תוך כדי הצילום, קוד קריפטוגרפי מסוים – צופן – שמתאים בצורה חד-חד-ערכית לתוכן התמונה או הסרטון. לצורך ההסבר, אם בסרטון יש שלוש מאות ארבעים פיסקלים ירוקים וארבע מאות פיסקלים צהובים – הקוד שיוצמד לסרטון יהיה 4F8. אם זייפן ייקח את הסרטון הזה ויחליף את פניה של הדמות הראשית בפנים אחרות, מספר הפיסקלים הירוקים והצהובים כבר לא יהיה אותו דבר. כשיו-טיוב תקבל את הסרטון המזוייף, המערכת שלה תחשב מחדש את הקוד הקריפטוגרפי שלו ובמקום 4F8 תקבל 5D9. זה יאמר לה בוודאות שהסרטון המקורי עבר שינוי, ויו-טיוב תוכל לתייג מראש את הסרטון כחשוד. 

הטכנולוגיה הזו קיימת מזה שנים רבות. יש לה שם – האשינג (Hashing) – והיא משמשת בכל מיני מצבים שבהם אנחנו רוצים לוודא שקובץ מסוים לא עבר שינוי על ידי גורם זדוני כזה או אחר. אבל האתגר האמיתי בפתרון הזה הוא ככל הנראה לא טכנולוגי, אלא הקושי לשכנע או להכריח את כל יצרני המצלמות ומכשירי ההקלטה להטמיע את הטכנולוגיה הזו במוצרים שלהן. אולי הלחץ בכיוון הזה יגיע מצידם של גופי התקשורת והרשתות החברתיות שלהם יש אולי מוטיבציה להשתמש בטכנולוגיה הזו כדי לשמר את האמינות שלהם. 

 

פתרון תיאורטי שני לוקח אותנו רחוק יותר אל מה שהם כמעט מחוזות המדע הבדיוני. 

באוגוסט האחרון, 2019, ביקרתי בכנס אבטחת מידע בשם Black Hat שנערך בלאס וגאס, ופגשתי שם שלושה חוקרים שעובדים בדיוק על הבעיה הזו: אלכס קונברט (Convert), ג’וני סונדרס (Saunders) וג’ורג’ וויליאס (Williams), שהוא גם מוביל המחקר המשותף שלהם. מטרתם של שלושת המדענים היא לזהות דיפ-פייקס בתחום האודיו – דהיינו, הקלטות קול מזויפות. כיום יש יחסית מעט תוכנות שמסוגלות לזייף באופן משכנע קול של אדם, אבל זה רק מכיוון שזיוף אודיו הוא הרבה פחות ‘נוצץ’ ומושך מזיוף סרטונים. טכנולוגיית GAN עצמה מסוגלת להפיק דיבור מזויף באותה הקלות שהיא מסוגלת להפיק תמונות או סרטונים, ודיפ-פייקס כאלה יכולים להיות מסוכנים לדמוקרטיה ולצנעת הפרט לא פחות מכל סרטון או תמונה מזויפים. כפודקאסטר, אני מניח שאתם מבינים מדוע מצאתי את המחקר של שלושת המדענים מעניין במיוחד: אם מישהו ירצה לזייף את הקול שלי, יש לו מאות – אם לא אלפי שעות של הקלטות שלי כדוגמאות שהוא יכול להזין למערכת ה GAN. 

 

ראינו שבסרטונים ותמונות, ל GAN יש עדיין נקודות תורפה מסוימות, כמו הקושי לחקות מצמוצים, נשימות או טקסטורות מסוימות בעור. נקודות תורפה כאלה קיימות גם במקרה של דיבור. הנה ג’וני סונדרס. 

 

“so the human voice is a resonant instrument. So what that means is that it produces harmonically-related frequencies. So if I’m going to produce frequency one, I’m going to also produce 2, 4, 8, the harmonic series. But the whole nature of speech is to manipulate those harmonics. So you make speech by sort of emphasizing or deemphasizing different sets of these harmonics.”

 

מה שסונדס אומר הוא שהקולות שמפיקים מיתרי הקול שלנן הם מורכבים מכמה וכמה תדרים, והתדרים האלה קשורים זה בזה. למשל, אם אשמיע את הצליל ‘אההההההה’ – הצליל הזה עשוי מגל קול בתדר מסוים, למשל אלף הרץ, אבל גם תדרים שהם כפולות של התדר הזה: למשל, אלפיים וארבעת אלפים הרץ, שמכונים גם ‘הרמוניות’ של הצליל המקורי, באלף הרץ. ההרמוניות האלה הן חלק טבעי מהדיבור שלנו, והן הסיבה שהקול האנושי נשמע עשיר ומורכב, לעומת צלילים ‘טהורים’ שמכילים רק תדר בודד ללא הרמוניות, כמו הצליל הבא באלף הרץ. 

 

כשרשת נוירונים מלאכותיים לומדת לחקות קולות אנושיים מתוך דוגמאות, גם היא תפיק קולות מרובי-הרמוניות. אבל נכון להיום, הקולות שמפיקות רשתות הנוירונים לא מכילים בדיוק את אותן ההרמוניות ובאותן העוצמות כמו דיבור טבעי. כלומר, אם מישהו יבחן את הקול שלי במכשיר שמסוגל למדוד את עוצמת התדרים השונים, ואז יבחן את דיפ-פייק של הקול שלי – הוא יוכל להבחין בהבדלים ברורים בין התדרים השונים בשתי הדגימות, כמו ההבדלים בין שתי טביעות אצבעות שונות, או שתי דוגמאות של כתב יד. 

 

הגישה המסורתית לזיהוי דיפ-פייק במקרה כזה, תהיה לנסות ולפתח מערכת שתנתח את דגימות הקול, תזהה את הטעויות הקטנות האלה ותגלה מי דוגמת הקול האמיתית ומי המזויפת. לרוע המזל, הגישה המסורתית הזו מועדת מראש לכישלון מכיוון שכפי שכבר ראינו, טכנולוגיית GAN מעצם טבעה לומדת מהר מאד להתגבר על ניסיונות גילוי שכאלה. רשתות הנוירונים הגנרטיביות ישתפרו וישתכללו, וילמדו להפיק צלילים בעלי חתימה הרמונית דומה יותר ויותר לדיבור טבעי – עד שיביסו את מערכות הגילוי. 

 

[Saunders] It’s very trivial to beat this approach because it’s easy to incorporate those types of features back into the deep learning algorithms as an additional loss function. So you can say …Interviewer: Train the deep learning network to fool the detector.

Interviewee 2: Exactly, yes. So it will try and output similar artifacts that a human would

produce.

 

אז…מה עושים? איך בונים מערכת לזיהוי דיפ-פייקס שהיא מצד אחד רגישה ומדוייקת, ומצד שני מסוגלת להשתפר ולהשתנות כדי להתחרות בהצלחה עם השיפור המתמיד של הבינה המלאכותית? 

 

זו השאלה שהטרידה את ג’ורג’ וויליאס, החוקר שמוביל את קבוצת המדענים שפגשתי בלאס וגאס. 

 

[Williams] So I’ve kind of been involved in this space for a while.[…] But also on my radar, I’ve been keeping my tabs on what has been happening outside of pure technology in the sort of – in the brain domain, in the neurosciences and I’ve noticed recently an uptick in a lot of really interesting research that I think is happening at the intersection of AI, of artificial neurons and biological ones.

In the last three years for example, there are some great work out of I believe UCSF training

pigeons to spot breast cancer and actually pigeons, they have a visual system which I believe is

very similar to humans. […] So they’ve trained the pigeons to actually spot cancer in

images of cells to the point where it’s highly accurate. So I was kind of monitoring a little bit of

that work and then Jonathan’s work came on my radar

 

וויליאמס מספר שנתקל במחקר אחר שבו נעזרו החוקרים ביונים כדי לזהות מקרים של סרטן השד. למה יונים, אתם שואלים? אם לומר את האמת, אין לי מושג – אולי בגלל שיותר קל לעבוד עם יונים מאשר עם לוויתנים. אבל בכל אופן, לא היונה פה היא העניין, אלא המוח שלה. מוחה של היונה, כמו המוח האנושי, הוא בסך הכל מכונה משוכללת שמנסה לזהות דפוסים במידע שהיא מקבלת מהעולם החיצון ולקבל החלטות בהתאם. ומוחות ביולוגים, אפילו המוחות הפשוטים ביותר – הם עדיין מתוחכמים ומשוכללים לעין שיעור מכל בינה מלאכותית שבני האדם מסוגלים אפילו לדמיין בימינו. מכאן, שאם נצליח לרתום את כוחו של המוח למשימת זיהוי הדיפ-פייקס, יש לו סיכוי לא רע להתמודד עם האתגר הזה. וויליאס ואלכס חברו לג’וני סונדרס, שהמחקר שלו התמקד לא ביונים אלא בעכברים. סונדרס מנסה ללמד את העכברים שלו להבחין בין צלילים שונים בדיבור אנושי. 

 

So at the basic level, the mice are confronted with a sound and they have to – so in this test, we’re just teaching them about two categories of sound or teaching them about one consonant versus another embedded within a vowel phrase. So it’s like a G and an I or a G and an O or something like that. 

 

הבחנה בין G ו-O היא לא המטרה הסופית של המחקר של סונדרס, כמובן: זה רק צעד ראשון בדרך לאמן את העכברים להבחין בין דיבור אנושי לבין דיבור לא אנושי, דיבור שהוא בעצם דיפייק. ומדוע מאמינים סונדס ועמיתיו שלעכברים יש פוטנציאל לזהות דיפ-פייקס? בגלל תכונה חשובה ומרתקת של המוח האנושי, שלא קיימת אצל היונקים הקטנים האלה. הנה ג’וני.

 

So in order to perceive speech normally, because speech is such an extremely fast signal, it’s an extremely variable signal, you can imagine all the different voices that you hear day to day, all the different sort of just like timbres of speech, rates of speech, accents that you hear.

In order to actually solve that problem, the auditory system needs to simplify the signal quite a

bit in its internal representation. So it needs to look for redundant information, look for

uninformative information, discard that and focus just on what can be used to inform the

phonetic identity of the thing you’re hearing. […] 

 

כשאנחנו מקשיבים למישהו מדבר, גלי הקול נכנסים למערכת השמע שלנו בזה אחר זה, ללא הפסקה. המשימה המוטלת על מוחנו היא לפענח את גלי הקול האלה ולחלץ מתוכם את המילים שנאמרות – ויש לו רק כמה מילישניות בודדות לפענח כל צליל, לפני שהצליל הבא כבר מתדפק על דלתות עצמות השמע. 

כדי להספיק לפענח את הצלילים, מוחנו פיתח את היכולת השימושית לסנן החוצה מתוך המידע שהוא מקבל את פיסות המידע הלא-רלוונטיות, את התדרים שאין להם השפעה אמיתית על התוכן של הדיבור. אפשר לדמות את המידע העודף הזה לצורות השונות של אותיות בכתב יד: לכל אחד מאיתנו יש כתב יד שונה, אבל כל עוד הכתב שלנו ברור דיו – מוחנו יודע להתעלם מההבדלים הקטנים בצורות האותיות בין כותב לכותב, ולחלץ את המשמעות מהמילים. אותו תהליך עקרוני מתרחש גם במערכת השמע שלנו וזו הסיבה, למשל, שאנחנו מצליחים להבין דוברים – אפילו אם יש להם מבטא קצת שונה מזה שאנחנו רגילים לשמוע. 

 

הסינון הזה הוא המפתח ליכולת שלנו להבין דיבור – אבל כשזה מגיע לזיהוי דיפ-פייקס, הוא יוצר לנו בעיה. אנחנו כל כך רגילים לסנן החוצה מידע לא רלוונטי מתוך הצלילים, עד שאנחנו מסננים החוצה – באופן לא מודע לחלוטין – גם את אותן טעויות קטנות שיכולות לרמוז לנו שמה שאנחנו שומעים הוא בעצם לא דיבור טבעי, אלא דיפ-פייק. אם הבינה המלאכותית תפיק בטעות את המילה ‘פלטפורמה’ במקום ‘פּלטפורמה’ – אנחנו כנראה נתעלם מהשגיאה הזו, כיוון שכך או כך אנחנו נבין באיזו מילה מדובר. 

 

לא כך אצל העכברים. מערכת השמיעה של העכבר דומה מאד למערכת השמיעה האנושית, אבל מכיוון שעכבר בלאו הכי לא מבין את המילים שהוא שומע – מוחו לא מנסה לסנן החוצה את המידע העודף. עבור העכבר, הצליל פָּ והצליל פָ הם צלילים שונים, נקודה. 

 

But the mice don’t have the same lifetime exposure to these speech sounds. So we

believe that they’re more of an acoustic sort of like blank slate – because they can learn really

difficult acoustic categorization problems. […] So that’s the reason why we would believe that mice would be able to detect these sort of deep fakes and why we think it would be possible to do that.

 

מכיוון שעכברים הם ‘דף חלק’ בכל מה שקשור להתייחסות שלהם לתוכן הדיבור, סונדס ועמיתיו מקווים שניתן יהיה לרתום אותם לזיהוי השגיאות הזעירות שמפיקה הבינה המלאכותית כשהיא מנסה לחקות דיבור אנושי. מילת המפתח כאן היא ‘מקווים’: המחקר הזה עדיין נמצא בחיתוליו. 

 

The actual amount of information that it takes to do this problem is enormous and when we

actually look at the behavioral results from the mice, they do seem to generate these extremely

fine categorization boundary for every mouse has a subtly different sort of pattern of errors to

them and we can manipulate that based on what example sounds we show them during training. We haven’t tested this but that’s the next – basically the next step in this type of research.

 

נכון לעכשיו, עושה רושם שבהתמודדות בין יוצרי הדיפ-פייקס והחוקרים שמנסים למצוא דרכים לזהות דיפ-פייקס, ידם של היוצרים נמצאת על העליונה – ולו מהסיבה הפשוטה שכרגע, רוב החוקרים מתמקדים בשיפור טכנולוגיית ה GAN ובינה מלאכותית בכלל, ורק מעטים יחסית עוסקים במחקר בתחום גילוי דיפ-פייקס. האני פריד (Farid), פרופסור למדעי המחשב באוניברסיטת קליפורניה, אמר בראיון לעיתון הוושינגטון פוסט – 

 

“אנחנו בנחיתות מספרית. מספר האנשים שעובדים על [פיתוח דיפייקס] הוא פי מאה ממספר האנשים שעובדים על גילוי וזיהוי של סרטונים מזוייפים.”

 

(Whashigton post) “We are outgunned,” said Hany Farid, a computer-science professor and digital-forensics expert at the University of California at Berkeley. “The number of people working on the video-synthesis side, as opposed to the detector side, is 100 to 1.”

 

מי יודע, אולי המצב הזה ישתנה ככל שיותר ויותר אנשים יהיו ערים לסכנות שנשקפות מדיפייקס. למשל, בדצמבר 2019 השיקו מספר חברות הייטק מובילות, בהן פייסבוק, אמזון ומיקרוסופט, תחרות בשם DeepFake Detection Challange או DFDC בקיצור, שבה הם מזמינים מפתחים מכל העולם לפתח כלים לזיהוי דיפייקס. פייסבוק הבטיחה למשתתפים פרס בגובה של עשרה מיליון דולר. גוגל שחררה לרשת בחינם דאטאסט – אוסף של עשרות אלפי תמונות דיפ-פייק – לשימושם של חוקרים שעובדים על הבעיה הזו. אולי מחקרים כמו זה של ג’ורג’ וויליאס וצוותו יניבו פירות מפתיעים.

 

לסיכום, כמו כל טכנולוגיה, גם היכולות החדשות והמסעירות של GAN עשויות להועיל לנו – כמו, למשל, לספק לנו חוויית קניה טובה יותר ברשת או עולמות וירטואלים עשירים יותר – ובאותה המידה, גם להזיק לנו ולהביא אותנו צעד אחד קרוב יותר לדיסטופיה של פחד, אלימות ואי-אמון. הרי בסופו של דבר, הטכנולוגיה היא רק כלי – ואנחנו אלה שקובעים מה נעשה איתה. 

 

ואפילו אם לא נצליח להתמודד בצורה מושלמת נגד הצדדים השליליים של הדיפייקס – אפשר בכל זאת למצוא נקודת אור חיובית בסיפור הזה. טכנולוגיית GAN נותנת בידינו את הכוח לפתח מערכות בינה מלאכותית שמסוגלות ליצור דברים חדשים, להפיק מידע חדש. היכולת הזו הייתה עד היום נחלתו הכמעט בלעדית של המין האנושי, ועצם העובדה שפתאום יש בידינו מכונות שמסוגלות לחקות – ולו באופן צר יחסית – את מה שרק המוח שלנו היה מסוגל לעשות עד היום, עשויה להיות תוספת חשובה לארגז הכלים של חוקרי המוח. באותו האופן שבו אנחנו מבינים טוב יותר איך פועל הלב שלנו בעקבות מחקרים שנעשו על משאבות מסוגים שונים, והאופן שבו אנחנו מבינים טוב יותר את התנהגותם של חיידקים בגוף שלנו בזכות מחקרים שנעשו על תרביות במעבדה – אולי גם GAN תיתן לנו כלים חדשים להבין גם את המכונה המדהימה והמורכבת ביותר המוכרת לנו ביקום כולו: המוח האנושי. הפיזיקאי הגאון ריצ’ארד פיינמן היטיב, כמו תמיד, לסכם את הנקודה החשובה הזו, כשאמר – “מה שאני לא מסוגל ליצור, אני לא מבין.” 

 

“What I cannot create, I do not understand.”

 

You may also like...

Leave a Reply

Your email address will not be published. Required fields are marked *