החזירו אותם הביתה עכשיו
חזרה לעמוד הקודם

היערכות הרשתות החברתיות וענקיות הטכנולוגיה לקראת בחירות 2024 – סקירה מתעדכנת

בהיותן כלי למימוש נרחב של חופש הביטוי ברשת, לרשתות החברתיות יש השפעה משמעותית על אופן התנהלות השיח בתקופת בחירות. סקירה זו של מדיניות פיקוח התוכן וההתמודדות של הרשתות החברתיות עם אתגרי הבינה המלאכותית בבחירות מגיעה על רקע בחירות דמוקרטיות קרובות במדינות רבות בשנת 2024 – הבחירות לפרלמנט האיחוד האירופי ביוני 2024, הבחירות לנשיאות ארה"ב בנובמבר 2024 וכן הבחירות הכלליות בברזיל, הודו, מקסיקו ומדינות נוספות. 

מטא

מטא צמצמה משמעותית את מספר העובדים המפקחים על תכנים בפלטפורמה, הן בפייסבוק והן באינסטגרם. מטא משתפת פעולה עם 11 ארגונים בינלאומיים לבדיקת עובדות, ועל פי המדיניות שלה ובהתאם להמלצת הארגונים – פוסטים שמכילים מידע מטעה יומלצו פחות לצפייה של משתמשים ויקבלו חשיפה מופחתת. אולם, מדיניות בדיקת העובדות של מטא לא תקפה לפוליטיקאים פעילים. 

בהמשך לכך, מעורבות מטא בטוהר הבחירות עלתה לדיון פנימי בחברה על רקע פרסום סרטונים בפייסבוק שמעודדים "הטלת מצור" על הקונגרס ובית המשפט העליון בברזיל. הסרטון פורסם והופץ ברשתות ביום 03.01.2023, דווח על-ידי משתמשים ובמטא הוחלט שלא להסירו מפייסבוק. מספר ימים לאחר מכן, ביום 08.01.2023, תומכי הנשיא הברזילאי לשעבר פרצו לקונגרס ולבית המשפט העליון הברזילאיים. כתוצאה מכך, ה-Meta Oversight Board, גוף הפיקוח העצמאי של חברת מטא, דן בנושא ופרסם את המלצותיו ב-21.08.2023. הומלץ שמטא תקבע קריטריונים להערכת יושרה בבחירות, תפרסם ותשקף מידע בנושא לגבי כל מדינה ותגבש מדיניות מותאמת למדינות רלוונטיות. יודגש כי נכון לעכשיו מטא אינה מפרסמת מידע לגבי אכיפה הספציפית לבחירות, אלא רק נתונים לגבי כלל האכיפה.

בעדכון שמפרסמת החברה ב-28 בנובמבר 2023, היא מצהירה כי תמשיך להחיל את גישתה המקיפה והעקבית לאורך השנים כלפי בחירות רחבות היקף בעולם. היא מודיעה כי במהלך השבוע האחרון של קמפיין הבחירות בארה"ב היא תחסום מודעות פוליטיות חדשות. ספרית המודעות שלה, הזמינה לעיון למשתמשים, מארכבת פרסומות ומודעות בפלטפורמות של החברה, בה הן נשמרות למשך שבע שנים לצורכי מעקב ובקרה ציבורית. מטא מפרטת על פעילותה לניטור הן התערבות זרה והן פעולות של השפעה מקומית, ומציינת שהורידה יותר מ-200 קמפיינים של השפעה זדונית שזוהו כ"התנהגות לא אותנטית מתואמת". החברה זיהתה גם יותר מ-700 קבוצות שנאה ברחבי העולם – כולל יותר מ-400 ארגוני עליונות לבנים – ותמשיך לזהות ולהעריך קבוצות שנאה חדשות, במיוחד כשהן קשורות לאלימות ב"עולם האמיתי." בנוסף, החל משנת 2024, היא תדרוש ממפרסמים ברחבי העולם לציין במפורש האם נעשה שימוש בכלי בינה מלאכותית או שיטות דיגיטליות אחרות לעיצוב תוכן במודעות בנושאים פוליטיים וחברתיים במקרים מסוימים.

בעדכון נוסף שפרסמה החברה ב-07 לפברואר 2024, החברה ציינה כי תתחיל לסמן תמונות שנוצרו על-ידי בינה מלאכותית בפלטפורמות פייסבוק, אינסטגרם ו-Threads. החברה מציינת בנוסף כי היא עובדת עם חברות אחרות – Google, OpenAI, Microsoft, Adobe, Midjourney, Shutterstock – על מנת ליצור סטנדרט משותף לזיהוי טכני של תוכן שנוצר על-ידי שימוש בכלים שלהן. נכון למועד העדכון, אין בידי החברה כלים לאתר ולסמן בעצמה בקנה מידה רחב סרטונים וקבצי קול שיוצרו על-ידי בינה מלאכותית, ולכן כפתרון זמני החברה תיתן למשתמשים בפלטפורמות שלה אפשרות לגלות מתי הם משתפים סרטונים או קבצי קול שנוצרו על-ידי בינה מלאכותית, וייתכן שיינקטו צעדים כנגד משתמשים שלא יהיו גלויים לגבי התוכן שהם מעלים. במידה והחברה תזהה סרטונים או קבצי קול שיוצרו על-ידי בינה מלאכותית ומעוררים סיכון גבוה להטעיה מהותית של הציבור בנושא בעל חשיבות, החברה תהפוך את הסימון לבולט יותר.

יוטיוב

ביולי 2023, יוטיוב עדכנה את מדיניותה ביחס להסרת מידע מטעה (misinformation) במערכת הבחירות לנשיאות ארה"ב. יוטיוב ציינה שהיא לא תסיר סרטונים שמקדמים מידע מטעה הקשור לטענות לגבי זיוף, טעויות או מרמה בבחירות הקודמות לנשיאות ארה"ב ב-2020. עם זאת, החברה הדגישה שייתכנו מחיקות של תכנים שמבקשים לפגום או לפגוע בהליך הדמוקרטי, לדכא הצבעה, להפיץ מידע שגוי לגבי מקומות, זמני ותנאי ההצבעה ועוד.  

ההחלטה הגיעה, לטענת יוטיוב, משום שבמהלך הבחירות הקודמות, מצאה יוטיוב שאמנם ייתכן שמדיניות הסרת התוכן שבה נקטה מנעה הפצת מידע מטעה ברמה מסוימת, אך המדיניות הזו לא מנעה פגיעות בעולם האמיתי או הפחיתה את האלימות, ובמקביל גרמה לפגיעה בחופש הביטוי הפוליטי של המשתמשים. מנגד, מומחים מצאו שלאחר שיוטיוב החלה להסיר תכנים שמפיצים מידע מטעה ביחס לבחירות במהלך הבחירות לנשיאות ב-2020, פורסמו בה הרבה פחות תכנים מטעים בהשוואה לפלטפורמה נוספת שבדקו – טוויטר. כלומר, ייתכן שההשפעה של יוטיוב על מניעת הפצת מידע מטעה הייתה יותר רחבה משחשבה החברה, באופן שאולי יצדיק חזרה למדיניות ההסרה הקודמת שלה. 

בהתאם לכך, החלטת החברה זכתה לביקורת מקרב מומחים אשר ציינו שהיא שרירותית ומהווה סיכון לדמוקרטיה. עוד טענו המומחים כי המדיניות החדשה תעזור בעיקר ליוטיוב, משום שמידע מטעה מתפשט מהר יותר ממידע אמיתי, כך שהתכנים ביוטיוב יזכו לצפיות רבות יותר.

טוויטר

למרות שלא היה שינוי רלוונטי במדיניות של טוויטר מאז הבחירות הקודמות, ניכר כי החברה מצמצמת את אכיפתה – טוויטר צמצמה את כמות העובדים המפקחים על תוכן מטעה בפלטפורמה שלה בלפחות 15%. בדומה ליוטיוב, מדיניותה של טוויטר ביחס לבחירות אוסרת על התערבות פסולה והשפעה אסורה על הבחירות. בשונה מיוטיוב, הטיפול של טוויטר אינו כולל הסרה של תכנים אלא מאפשר למשתמשים אחרים להוסיף הערות הבהרה על הפוסטים המטעים, שיתריעו בפני הקוראים שמדובר בפוסט מטעה ויספקו להם תיקון והקשר. 

אולם, בדיקה שהתבצעה על ידי רשת התקשורת AP מצאה, כי הציוצים המטעים של טראמפ, בהם טען להטעיה והונאה בבחירות לנשיאות ב-2020, נשארו כפי שהם – לא נוספו להם הערות והם לא תויגו כפוסטים מטעים. לציוציו של טראמפ שבהם טענות לזיוף הבחירות יש יותר מ-43,000 ציוצים מחדש (שיתופים), באופן שמקדם הפצת מידע מטעה וסותר לכאורה את המדיניות המוצהרת של טוויטר. 

טיקטוק

מדיניותה המוצהרת של טיקטוק ביחס ליושרה בבחירות מאפשרת במקרים של מידע מטעה להסיר את התוכן, להגביל את זמינותו בחיפושים, להגביל את ההמלצה שלו למשתמשים אחרים ולנתב מחדש תוצאות חיפוש שיובילו אליו. בפרט, מידע מטעה לגבי מיקום, מועד ותנאי הבחירות יוסר, וכך גם מידע ששואף לדכא הצבעה (בדומה למדיניות של יוטיוב).

טיקטוק משתפת פעולה עם 15 ארגוני בדיקת עובדות בינלאומיים שמעריכים את נכונות התכנים שלה, והחברה פועלת בהתאם למידע שהם מספקים לה. עם זאת, מחקר שפורסם באוקטובר 2022 מצא שהתמודדותה של טיקטוק בתחום זה הייתה הכושלת ביותר מבין כל הפלטפורמות הגדולות – החוקרים העלו לפלטפורמה פרסומות עם מידע מטעה הקשור לבחירות, ו-90% מהפרסומות אושרו בסופו של דבר על-ידי טיקטוק והופצו למשתמשים. זאת, לעומת רק 20% מהפרסומות המטעות באנגלית שהחוקרים ניסו לפרסם ברשת פייסבוק.

OpenAI

חברת OpenAI היא חברת בינה מלאכותית אמריקאית שאחראית בין היתר על פלטפורמת ChatGPT – צ'אטבוט מבוסס בינה מלאכותית. הפלטפורמה מאפשרת למשתמשים לשאול שאלות בצ'אט ייעודי, ולקבל תשובות על בסיס מערכת הבינה המלאכותית של הפלטפורמה. נכון לנובמבר 2023, לפלטפורמת ChatGPT יש מאות מיליוני משתמשים פעילים על בסיס שבועי. בנוסף, לחברה יש פלטפורמה שמקבלת טקסטים ויוצרת תמונות בהתאם להם, וכן החברה מאפשרת למשתמשים ליצור צ'אטבוט משלהם. 

במסגרת ההכנות שלה לקראת הבחירות בשנת 2024, החברה הודיעה כי לא תאפשר למשתמשיה לבנות אפליקציות לצורך ניהול קמפיינים פוליטיים או שדלנות. כמו כן, משתמשים לא יוכלו ליצור צ'אטבוטים שיעמידו פנים שהם אנשים אמיתיים (לדוגמה, מועמדים פוליטיים) או מוסדות (לדוגמה, עיריות ומוסדות ממשל מקומי). לא ניתן יהיה לעשות שימוש באפליקציות כדי להטעות לגבי מועד, הליך או מיקום הבחירות או כדי לדכא התמודדות בבחירות, ומשתמשים יוכלו לדווח על הפרות של מדיניות זו דרך מערכת דיווח. בנוסף, על מנת לספק לבוחרים את היכולת להבחין בין תמונות מזויפות לאמיתיות (לפחות במקרים שבהם התמונות הופקו בידי המערכות שלה), החברה תיישם מערכת לאימות תמונות שיוצרו בידי AI על כל המערכות שלה שביכולתן להפיק תמונות.

לבסוף, מערכת ChatGPT תשלב בהדרגה מקורות מידע קיימים בזמן אמת כמו חדשות, ותכלול הקשרים וקישורים למקורות האלה. שקיפות לגבי המקורות ואיזון של מקורות החדשות יאפשרו למשתמשים להעריך מידע בצורה טובה יותר. בנוסף, מעכשיו כשתישאל על נושאי בחירות בארה"ב, ChatGPT תפנה משתמשים לאתר רשמי ואמין לגבי מידע על הצבעה בארה"ב, במסגרת שיתוף פעולה של החברה עם ארגון מקצועי של השירות הציבורי בארה"ב. החברה תשקול הרחבה של מודל הנגשת המידע הזה למדינות אחרות בהתאם למסקנות מההתנסות הזו ביחס לבחירות בארה"ב. 

Anthropic

חברת Anthropic היא חברת בינה מלאכותית אמריקאית שמפתחת ומנהלת את פלטפורמת Claude ("קלוד") – מוצר בינה מלאכותית שדומה במהותו ל-ChatGPT. הפלטפורמה מאפשרת ניהול צ'אט וקבלת תשובות על בסיס שאלות של המשתמשים, וכן יצירת טקסטים ותמונות. 

ביום 04.06.2024, החברה עדכנה כי היא נוקטת במספר פעולות למניעת שימוש לרעה בקלוד לשיפור איכות המידע שהוא נותן: ראשית, מערכת הלמידה של קלוד עודכנה כך שיש סיכוי גבוה יותר שהוא יפנה משתמשים למקורות אמינים ובעלי סמכות כשהוא נשאל על שאלות בנושאי בחירות. בנוסף, תנאי השימוש של החברה עודכנו כך שיכללו גם איסור מפורש וברור על שימוש במערכות החברה על מנת להפיץ מידע מטעה, לשבש הליכי בחירות, ולעודד תמיכה במפלגות או מועמדים מסוימים. החברה גם שיפרה את מערכות הבקרה האוטומטיות שלה ומיקדה את הבקרה האנושית שלה בנושאים הקשורים לבחירות, והוסיפה מנגנון לפיו המערכות האוטומטיות יפנו משתמשים ששואלים שאלות בעייתיות בנושאי בחירות למקורות ממשלתיים אמינים לקבלת תשובות. 

כך, החברה מקווה לצמצם את ההשפעה השלילית של קלוד על תהליכי הבחירות ברחבי העולם, ולמנוע שימוש לרעה במערכות שלה. 

התמודדות משותפת עם תוכן מטעה שיוצר על-ידי בינה מלאכותית

ביום 16.02.2024 הצהירו 20 חברות טכנולוגיה מובילות, ביניהן אמזון, גוגל, מטא, מיקרוסופט, טיקטוק, X (טוויטר) ו-OpenAI, על כך שייאבקו בשימוש מטעה בבינה מלאכותית במסגרת בחירות, ויעזרו למנוע השפעה מטעה של תוכן פוגעני או מטעה שיוצר על-ידי בינה מלאכותית על הבחירות. החברות הסכימו לעבוד ביחד לאיתור והתמודדות עם הפצה של תוכן בינה מלאכותית כזה ברשת, לקדם פעילויות חינוכיות בנושא, ולספק שקיפות לציבור על אופן טיפולן בנושא והיקף הבעיה. ההצהרה נוגעת לתכני קול, וידאו ותמונות שיוצרו על-ידי בינה מלאכותית, אשר משנים באופן מטעה את המראה, קול או פעולות של מועמדים פוליטיים או גורמים אחרים הקשורים להליך הדמוקרטי. בנוסף, ההצהרה קוראת לפעולה נגד תכנים שיוצרו על-ידי בינה מלאכותית, אשר מספקים מידע שקרי או מטעה למצביעים בנוגע למועד ההצבעה, אופן ההצבעה או מיקום ההצבעה, במטרה לפגוע בהליך הבחירות. 

החברות שחתמו על ההצהרה הסכימו ל-8 התחייבויות:

  • פיתוח ויישום טכנולוגיה להפחתת הסיכונים הנוגעים לתוכן מטעה הנוגע לבחירות. 
  • הערכת מודלים ומערכות בינה מלאכותית על מנת להבין את הסיכון שהם מציבים בנוגע לתוכן מטעה בבחירות.
  • חיפוש ואיתור של תוכן כזה בפלטפורמות שלהן.
  • התמודדות "מתאימה" עם התוכן הזה, לאחר איתורו בפלטפורמות שלהן.
  • שיפור וטיפוח של המוגנות הכוללת של תעשיית הטכנולוגיה לתוכן מטעה שנוצר ע"י בינה מלאכותית ונוגע לבחירות.
  • מתן שקיפות לציבור בנוגע לאופן שבו החברות מתמודדות עם הנושא.
  • פיתוח שותפויות עם ארגוני חברה אזרחית וארגונים אקדמיים.
  • תמיכה במאמצים להעלאת מודעות ציבורית, אוריינות טכנולוגית ומוגנות מפני תוכן כזה בכלל החברה.

התמודדות הפלטפורמות עם ניטור וטיפול בתוכן פוליטי בשפות שאינן אנגלית ובהקשרים תרבותיים מורכבים

מחקר חדש של ארגון מוזילה בחן יותר מ-200 התערבויות של חברת גוגל, מטא ואחרות לאורך שבע שנים ו-27 מדינות בעניין בחירות. המחקר סקר למעלה מ-200 הודעות מחויבות מצד הפלטפורמות מ-2016 – 2023, מצא שחלק הארי של הודעות אלו, המהוות לפחות 62% מבין 197 התערבויות בעלות אופי גיאוגרפי ספציפי, התבצע על ידי החברות בארה"ב ובאירופה בלבד. המחקר ניתח את מדיניות הפלטפורמות החל מאיסורי פרסום והקפאות תכנים, שותפויות לבדיקת עובדות, תוכניות אוריינות דיגיטלית ועד התחייבויות לניטור תוכן.

על פי הדו"ח, שלושה סוגי ההצרות המובילות שהוכרזו מצד הפלטפורמות בעניין בחירות היו 1.תוכניות אוריינות דיגיטלית (23 מדינות), 2. יוזמות לבדיקת עובדות (21 מדינות) ו-3. עדכוני מדיניות ניהול תוכן (21 מדינות). בעוד שההתערבויות בארה"ב ובאירופה התמקדו בעיקר בפרסום פוליטי, המדיניות בכל מדינות הרוב העולמי כוונה לאסטרטגיות לניטור תוכן. 

פלטפורמות המדיה החברתית מהוות גורם משמעותי כחלק מהגברת דיסאינפורמציה, לעתים קרובות עם השלכות הרסניות בדרום הגלובלי. כעת, כאשר תוכן שנוצר על ידי AI מתרבה ברשת, הוא גם מאיים על מדינות דמוקרטיות. 
בינתיים, כאשר הפלטפורמות מעדכנות כדי להתמודד עם האיום של תכנים מסוג זה, הדו"ח חושף כי שינויי מדיניות מערכתיים בקושי מדביקים את הפער במדינות הרוב הגלובלי. המחקר מצא כי רוב הפלטפורמות עשויות לפעול במדינות הרוב הגלובלי אם הבחירות הללו יישרו קו עם ארה"ב, מה שסולל את הדרך לניצול חלונות פגיעים.