פלטפורמות התוכן הדיגיטליות, ובראשן הרשתות החברתיות, הפכו בשנים האחרונות לכלי משמעותי המעצב את המרקם החברתי והכלכלי בעולם כולו, וגם בישראל. על רקע מגמה זו החלו ברחבי העולם לחשוב מחדש על דרכי הפיקוח המדינתיות על הפלטפורמות האלה ועל דרכי אסדרתן כדי להתמודד עם הקשיים הנובעים מהמצב הנוכחי, ובראשם פערי מידע ומיקוח בין המשתמשים לפלטפורמות, היקף התוכן הבלתי חוקי או המזיק המופץ ברשת, והנזקים החברתיים־דמוקרטיים הנגזרים מפעילות הפלטפורמות.
במסמך זה אנו מציעים מתווה יישומי לאסדרת פעילות הרשתות החברתיות באמצעות הדין והרגולטורים הקיימים כבר בישראל, מתוך התייחסות ליוזמות האסדרה של משרד המשפטים ומשרד התקשורת בשנת 2022, והערכת האפקטיביות שלהן מול המסגרת הרגולטורית שאימץ בתחומים אלו האיחוד האירופי בסוף שנת 2022. המסמך ממפה את הצרכים החברתיים של מדינת ישראל והציבור הישראלי ביחס לפלטפורמות גלובליות בעלות נתח שוק משמעותי בישראל, מציג את חלופות המדיניות האפשריות להתמודדות עם היקפי ההפצה הנרחבים של תוכן לא חוקי או מזיק ברשתות חברתיות ובפלטפורמות תוכן מבוסס־גולשים, ולבסוף מציע מדיניות קונקרטית המתרגמת את העקרונות האלה לחקיקה המתאימה למצב החברתי והרגולטורי בישראל, ומדגים כיצד אפשר להתחיל לספק הגנה לציבור הישראלי גם בלא הקמת רגולטור חדש או שינוי חקיקה ראשית.
מה צריכה האסדרה הישראלית לדרוש מפלטפורמות תוכן דומיננטיות?
מדוע העיקרון הזה חשוב?
מכיוון שמדיניותן של פלטפורמות הדומיננטיות ממילא כוללת איסורים על פעילות בלתי חוקית ועל שורה ארוכה של תכנים חוקיים־אך־פוגעניים (כמו בריונות רשת, והפצה ופרסום של מידע כזב בנושאי בחירות), האסדרה המשפטית בישראל צריכה להתמקד בתמריצי החסר של פלטפורמות לאכוף אכיפה אפקטיבית ושוויונית את כללי התוכן שלהם עבור המשתמשים כאן. אכיפה בררנית או בלתי שוויונית של הכללים, במיוחד בכל הנוגע לתוכן גולשים העוסק בסוגיות חברתיות ופוליטיות, עשויה לפגוע במרקם הדמוקרטי של כל מדינה, לרבות ישראל.
ככל שפלטפורמות דיגיטליות הופכות ליותר ויותר משמעותיות במרחב הציבורי הישראלי, עד כדי כך שהן פועלות כשירותים מעין־ציבוריים, יש מקום להבטיח שפעולות האכיפה שלהן נעשות ברוח עקרונות המנחים גופי אכיפה ממשלתיים. יש חשיבות עליונה שלציבור המשתמשים לא יהיה ספק כי הפלטפורמות נוהגות בהגינות. כאשר משתמש אינו מאמין שדעותיו מקבלות ביטוי שווה בפלטפורמה, היכולת לייצר תשתית עובדתית משותפת לכלל החברה מתערערת, ללא קשר לשאלה אם אמונתו של המשתמש מבוססת. בארצות הברית, לדוגמה, נמצא כי חוסר האמון בשוויוניות האכיפה של פלטפורמות דיגיטליות היה כר פורה להתפשטות מידע שגוי על הליך ספירת הקולות בבחירות לנשיאות בשנת 2020. משתמשים שפקפקו בתוצאות הבחירות ראו במידע שהפריך את טענותיהם ובהיעדר מידע שאישש את המידע הזה תוצאה של ״צנזורה״ והשתקת קולות שמרניים, במקום תשתית עובדתית ששיקפה את המציאות. בעקבות זאת, הם פנו לפלטפורמות שהבטיחו ״צנזורה מינימלית״, ובהן הם נחשפו אך ורק למידע שגוי ולקונספירציות שהעצימו את אמונתם באי־תקינות הליך הספירה. נוסף על כך, משתמשים אלו עודדו את נבחרי הציבור שלהם לחוקק חוקים המגבילים את יכולתן של הפלטפורמות לנהל תוכן פוליטי, חוקים העשויים להוביל לחשיפה רבה לתוכן שגוי ומטעה.
ולבסוף, מעבר לחשיבות הדמוקרטית שבאכיפה שוויונית, גם היבטים צרכניים מחייבים אכיפה כזאת. יש לזכור כי לצד השימוש החופשי והחינמי בפלטפורמות דיגיטליות, ברובן יש שימוש מסחרי נרחב. גוף המבצע קידום ממומן בפייסבוק, לדוגמה, הוא צרכן של הפלטפורמה לכל דבר ועניין. יש לו אינטרס כלכלי בהמשך הגישה לעמוד שהוא מפעיל וזכות בסיסית לוודא כי גישה זו אינה נמנעת ממנו באופן בלתי הוגן.
מה אפשר ומה אי אפשר לצפות ממפעילי הפלטפורמות הדומיננטיות?
ככלל, הפלטפורמות הדיגיטליות נחושות להציג את עצמן כגופים אובייקטיביים האוכפים את כלליהם על ידי אכיפה אפקטיבית, שוויונית ובלתי מוטה. חברת מטא, לדוגמה, הגיבה לביקורת על החרגות החשבונות שיש להם לכאורה "ערך חדשותי מיוחד" בצמצום משמעותי של סוג החשבונות הזכאים לפטור הזה וביצירת מרכז שקיפות ייעודי המספק מידע על אודות כללי ה־Newsworthiness ודרך אכיפתם. כל זאת, כדי לצמצם הן את האכיפה הבלתי שוויונית בפועל, והן את מראית העין.
למרות זאת, גם אם איננו מייחסים לפלטפורמות כוונות זדון, אי אפשר להיתלות בנכונות שלהן לבדה כדי ליישם את העיקרון הזה במלואו. ראשית, היקף המשאבים שהפלטפורמות משקיעות בסינון ובניטור תוכן, משפיע ישירות על אפקטיביות האכיפה. היקף המשאבים הזה משתנה על פי השוק המדובר והשפה הפעילה בו. כך, בישראל המשאבים המושקעים בסינון תוכן בעברית גדולים לאין שיעור מהמשאבים המושקעים בסינון תוכן באמהרית, ותוכן בשתי השפות האלה נבחן בכלים דלים מאוד ביחס לאלו המשמשים לסינון תוכן באנגלית. התוצאה הבלתי נמנעת היא אכיפה בלתי שוויונית של כללי הקהילה על בסיס שפת השימוש של המשתמש, וכפועל יוצא — על בסיס מאפיינים דמוגרפיים.
שנית, גם אם משקיעים את אותם המשאבים, יש חשש מהטיה בלתי מכוונת הנובעת מאי־הכרה של הקשרים תרבותיים וחברתיים בקרב גורמי האכיפה, או מהטיה נסתרת (Implicit bias). ההטיות האלה מקבלות ביטוי הן כאשר פעולות הסינון נעשות על ידי גורם אנושי, ועל אחת כמה וכמה כאשר הן נעשות בעזרת כלים אוטומטיים. כדי למנוע את ההטיות האלה יש צורך בהשקעת משאבים רבים באיתורן. כיום, ללא תמריצים ציבוריים או משפטיים, הפלטפורמות אינן משקיעות את המשאבים הנדרשים. בעניין מראית העין של אכיפה אפקטיבית ושוויונית, יש להכיר בכך שיכולתן של הפלטפורמות להבטיח את הרובד הזה בעצמן מוגבל. לנוכח חשיפות העבר, הציבור, במידה רבה של צדק, ספקן באשר ליכולתן של הפלטפורמות להעיד על איכות האכיפה שלהן עצמן. ולכן, כדי ליישם את העיקרון הזה יהיה צורך לערב גורמים ממשלתיים, ארגונים חברתיים וחוקרים מהאקדמיה שיוכלו לאשש או להפריך את טענות הפלטפורמות באופן שקוף ומניח את הדעת.
מה אפשר לעשות כדי ליישם את העיקרון הזה
לשם הבטחת העיקרון הזה אנו מציעים להרחיב את מידת האחריותיות של הפלטפורמות כלפי משתמשיהן באמצעות הכלים המשפטיים והרגולטוריים האלה:
- הטלת חובה חוקית כללית לאכיפה הוגנת, כדי שכל חריגה תיחשב מעשה בלתי חוקי ברוח העקרונות העומדים בבסיס כל הליך מעין־שיפוטי. חובה זו תשמש תשתית להגברת רמת הנכונות של הפלטפורמות להשקיע משאבים בהבטחת העיקרון הזה. מבחינת הגורמים הציבוריים, חובה זו תהפוך לאפיק משפטי לביקורת על פלטפורמות שאינן מממשות את העיקרון.
- הגדלת מידת השקיפות של הפלטפורמות בכל הנוגע לאופן אכיפת כלליהן, כדי להעניק כלים למשתמשים ולציבור לבחון בעצמם אם הופרו כללי האכיפה ההוגנים.
- הגדלת מידת ההשתתפות של המשתמשים עצמם בהליך הסינון, בין בדיווח על תוכן בעייתי שהעלה משתמש אחר, ובין על ידי זכות ערעור על החלטה שהתקבלה נגד המשתמש עצמו.
ונדגיש: הוראות האסדרה הישראלית שנועדו להבטיח את שלומם ובטיחותם של משתמשים ואת חובתן של הפלטפורמות לפעול נגד שימוש לרעה בשירותיהן אינן יכולות להתבסס על הגדרות מופשטות ועמומות כמו "תוכן פוגעני". הן עבור רשויות האכיפה המדינתיות והן עבור הפלטפורמות, אפקטיבי הרבה יותר להתמקד באחריות הפלטפורמות לתוכן בלתי חוקי (פלילי או עוולתי), באופן שיאפשר תאימות לסטנדרט הגלובלי שקובע ה־DSA.
מדוע העיקרון הזה חשוב?
בעת ההתמודדות עם תוכן בלתי חוקי בכלל, ועם תוכן חוקי אך מזיק בפרט, גבולות המותר והאסור אינם מובנים מאליהם, והם אף עשויים להשתנות מפלטפורמה לפלטפורמה. שונות זו אינה בלתי סבירה בפני עצמה, והיא אף מתבקשת כיוון שהפלטפורמות משמשות לצרכים שונים או מכוונות לקהלי יעד אחרים. לדוגמה, חברת מטא אוסרת איסור מוחלט כמעט על העלאת תוכן בעל אופי מיני, ואילו חברת טוויטר (X) מאפשרת העלאת תוכן מיני חוקי אך מגבילה את תפוצתו ואת היכולת לאתרו למשתמשים בוגרים המבקשים להיחשף אליו. כיוון שהתוכן אינו בלתי חוקי אין מקום לכפות על הפלטפורמות לנהוג כלפיו באופן מסוים. אולם כדי שהמשתמשים הסבירים יוכלו לדעת מהם התכנים שהם עשויים להיחשף אליהם, וכן מהם סוגי התכנים שהם רשאים להעלות לכל פלטפורמה, יש צורך בשקיפות מרבית בכל הנוגע לכללי השימוש. ללא שקיפות כזאת המשתמש הסביר לא יוכל להתאים את התנהגותו לגבולות המותר והאסור הרלוונטיים ולהתרחק מפלטפורמות שכללי הקהילה בהן אינן תואמים את העדפותיו.
מעבר לשיקוף כללי הקהילה, יש חשיבות עליונה לכך שמשתמש ידע כיצד הפלטפורמה אוכפת את הכללים בפועל, לרבות מהם היקפי האכיפה שלהן, מהם הכלים המשמשים לאיתור ולהסרה של תוכן, ואם ישנם גורמים שלישיים העשויים להשתתף בהליך האיתור של תוכן בעייתי. שקיפות זו הכרחית כדי ליישם את עקרון האכיפה השוויונית, שכן רק אם יש לפניו המידע הזה יוכל משתמש שיספוג סנקציה בגין הפרה של הכללים לבחון אם פעילות הפלטפורמה תואמת את כלליה, מידתית, ואינה שרירותית או מוטה נגדו.
מה אפשר ומה אי אפשר לצפות ממפעילי הפלטפורמות הדומיננטיות?
אף שכיום מרבית הפלטפורמות הגדולות מפרסמות את כללי הקהילה שלהן, לעיתים קרובות הכללים מוצגים באופנים המקשים על המשתמשים להבין כיצד עליהם לפעול. לדוגמה, כל הפלטפורמות אוסרות על הצגת תוכן אלים במיוחד (Gore Content), אולם פלטפורמות רבות, דוגמת דיסקורד, אינן מפרטות כיצד הן מבחינות בין תוכן אלים ולגיטימי לבין תוכן אלים במיוחד שאין לו מקום ברשת. אי־בהירות זו פוגעת במשתמשים כיוון שהם אינם יכולים להכריע אם הם רוצים להיחשף לסוג התוכן המותר על גבי פלטפורמה כלשהי, או לא. נוסף על כך, משתמש עשוי להעלות בשגגה תוכן אסור כיוון שהכלל הנוגע לו אינו מנוסח בבירור, והוא מתקשה ליישמו. פער נוסף הקיים כיום בכל הנוגע לשקיפות כללי קהילה הוא שפלטפורמות רבות נוהגות במה שמכונה ״שקיפות בדיעבד״. הן מכריעות שסוג תוכן מסוים אינו לגיטימי, או מעדכנות את כללי הקהילה עדכון פנימי, אולם מפרסמות את הכללים החדשים רק בחלוף זמן רב מרגע יישום הכללים בפועל. כלומר, למשך תקופה מסוימת, לעיתים חודשים רבים ואף שנים, הכללים החלים על המשתמשים שונים מהכללים המוצגים באתר החברה.
לשני הפערים האלה מצטרפת בעיה נוספת המשפיעה במיוחד על השוק הישראלי — נגישות הכללים בשפות שאינן אנגלית. אף שמרבית הפלטפורמות הגדולות מתרגמות את כללי הקהילה שלהן לכמה שפות (לדוגמה: פייסבוק מנגישה את תנאי השירות שלה רק ב-50 מתוך 110 השפות שבהן מפרסמים תוכן בפלטפורמה שלה), פלטפורמות בינוניות בגודלן לא עושות זאת תמיד, וגם הגדולות לא עושות זאת תמיד בשפות לא־מערביות, כמו עברית. לא זו אף זו, פעמים רבות הפלטפורמות, לרבות הגדולות שבהן, מעדכנות את כללי הקהילה שלהן בשפת המקור אולם מתעכבות בתרגום העדכונים לשפות אחרות. כאשר בסופו של דבר מועלה התרגום, לעיתים מדובר בתרגום אוטומטי בלתי קריא שלא עבר שום בקרה אנושית.
מה אפשר לעשות כדי ליישם את העיקרון הזה
כמו בהוראות ה־DSA בנושא זה, ראוי לחייב מפעילי רשת חברתית דומיננטית בישראל להציג את כללי הקהילה באופן מלא ובהיר בשפות הנפוצות בישראל, ובכלל זה לפרט את סוגי התוכן האסורים, להביא דוגמאות לתוכן מותר ואסור, ולפרט מהם סוגי הסנקציות שהפלטפורמה עשויה להטיל על משתמש מפר. ניתן אף לדרוש כי הפלטפורמה תשקף כיצד היא קובעת את חומרת הסנקציה, ובמיוחד, מהן הנסיבות שבהן היא תשעה חשבון המשתמש, בין השעיה זמנית בין השעיה קבועה. עם זאת, יש להכיר במציאות היום, שבה גם כאשר הפלטפורמות נוהגות בשקיפות מרבית באשר לכללי הקהילה שלהן, רוב מוחלט בציבור אינו טורח לקרוא וללמוד את הכללים. לפיכך, יש להוביל לשינוי התנהגות צרכנית בקרב המשתמשים, באמצעות חינוך, אוריינות וקמפיינים ציבוריים שיפרטו את חשיבות כללי הקהילה של הפלטפורמות ואת הצורך בהבנתם.
אנו מציעים לפעול לכך שמפעילי רשת חברתית ינגישו את הכללים האלה באופן נהיר למשתמשים המקומיים, דהיינו יציגו אותם בשפה המדוברת באותה המדינה ובנוסח בהיר ומובן. יש מקום אף להתערב באופן הצגת כללי הקהילה, כדי למנוע מצב שבו פלטפורמות יוצאות ידי חובה ומפרסמות כללים עמומים או לא מפורטים. לדוגמה, מוצע לעגן, בין היתר:
- את החובה להציג כללי קהילה ברורים. (כלומר: תוכן הכללים לא ייקבע בחוק. החוק רק יגדיר מה תיחשב הצגה מקיפה דיה של הכללים הנקבעים על ידי הפלטפורמה)
- את החובה לפרט בכללי הקהילה את סוגי התוכן האסורים, להביא דוגמאות לתוכן מותר ולתוכן אסור.
- את החובה לפרט בכללי הקהילה מהם סוגי הסנקציות שהפלטפורמה עשויה להטיל על משתמש שהפר את הכללים, כיצד היא קובעת את חומרת הסנקציה, ובמיוחד את הנסיבות שבהן חברה תשעה את חשבון המשתמש, בין זמנית, בין באופן קבוע.
- את פרקטיקת השקיפות בנוגע למנגנוני "מדווחים אמינים" (trusted flaggers): ככלל, פרקטיקה זו מסייעת באכיפה אפקטיבית של כללי הקהילה, ואין לפסול אותה. עם זאת, יכול להיווצר קושי מהשימוש במדווחים אמינים אם זהותם אינה ידועה למשתמשים, ובמיוחד אם מדווחים אלו הם גורמי אכיפה ממשלתיים. לנוכח זאת, אנו מציעים לאמץ בישראל את הסטנדרט שקובע ה־DSA: פלטפורמה המפעילה תוכנית מדווחים אמינים נדרשת לעשות זאת בשקיפות מלאה עבור המשתמשים ולחשוף את זהות הגופים המקבלים "מעמד מיוחד" מטעמה. הוראה דומה קיימת גם בהמלצותיה של ועדת בן חורין, אך הן סוטות מאוד ממסגרת ה־DSA ומספקות לציבור הגנה צרכנית פחותה מזו שאנחנו מציעים. אף שהוועדה המליצה להטיל על הפלטפורמות חובה לעדכן את הרגולטור בזהות המדווחים האמינים, היא הותירה בידיו את ההחלטה אם לפרסם רשימה זו לציבור. על פי הצעתנו, הפלטפורמות יחויבו לפרסם את הרשימה הזאת, ולא להותיר את הדבר לשיקול דעתו של הרגולטור. כמו כן, הוועדה המליצה לאפשר לרגולטור לכפות על הפלטפורמות להחשיב גופים מסוימים מדווחים אמינים. המלצה זו, בצירוף היעדר השקיפות שבמנגנון שהציעה ועדת בן חורין, מעניקים כוח רב מדי לרגולטור, והוא יכול להוביל לניצול לרעה של מנגנון המדווחים האמינים כדי לזכות בהשפעה רחבה על תהליכי ניטור התוכן של הפלטפורמות.
מדוע העיקרון הזה חשוב?
כיוון שאופי המתווה מתמקד בהגנה על זכויות צרכניות, אנו מציעים להבטיח אכיפה אפקטיבית ושוויונית על ידי העצמת משתמשי הקצה והענקת הכלים הדרושים להם כדי לזהות אכיפה בלתי ראויה של הפלטפורמות ולפעול נגדה. כמו במנגנון התמריצים שקובע ה־DSA, אסדרה מדינתית יכולה וצריכה לחייב לקבוע סטנדרטים בסיסיים של הליך הוגן וכללי צדק טבעי שיחולו על פלטפורמות דומיננטיות כאשר הן מפעילות סנקציות חריפות נגד משתמשים, כגון הסרת תוכן או השעיית חשבון, למשל, חובת הודעה למשתמש על פעילות אכיפה שנעשתה נגד תוכן שהעלה או נגד חשבון שלו, ובה גם מידע בדבר הסיבה לפעולה ודרכי הערעור האפשריות. אם משתמשי הרשתות הדומיננטיות בישראל לא יקבלו מידע ונתונים על פעולות אכיפה של הסכם השימוש או של כללי התוכן נגדם, הם לא יוכלו לזהות פגיעה בלתי הוגנת או הסרה לא מוצדקת.
העיקרון הזה חשוב תמיד, והוא חשוב במיוחד לנוכח התפתחות פרקטיקה של אכיפה ״רכה״ מצד פלטפורמות. במסגרת אכיפה רכה, פלטפורמות אינן מסירות תוכן ״גבולי״, אולם הן משתמשות בכלים אחרים כדי לצמצם את הפגיעה הפוטנציאלית, דוגמת צמצום תפוצה, הסתרה בכלי חיפוש, או הוספת סימני אזהרה. כל הפרקטיקות האלה יכולות להועיל מאוד ביצירת מרחב רשת בטוח, אולם הן כולן פרקטיקות ״שקופות״ ובלתי ידועות למשתמש המפר. דהיינו, אם הפלטפורמה לא תיידע את המשתמש, הוא כלל לא ידע שהוטלה סנקציה על החשבון שלו, ומכאן שלא יוכל לבחון אם המהלך תואם את כללי הפלטפורמה.
מועצת הפיקוח החיצונית למטא, ה־Meta Oversight Board, הדגישה בכמה מהחלטותיה את חשיבותו של העיקרון הזה. המועצה ציינה כי ללא מתן מידע מפורט על סוג הסנקציה שהוטלה, הסיבות שבגינה הוטלה והגורמים שהשתתפו בהחלטה, תהיה לכללי הקהילה של הפלטפורמה משמעות מצומצמת, שהרי שום גורם, מלבד הפלטפורמה עצמה, לא יוכל לערער, משפטית או ציבורית, על פעילותן. עוד הוסיפה המועצה כי שקיפות זו חשובה במיוחד כאשר הפלטפורמה נוקטת צעדים נגד משתמש בעקבות פנייה של גורם אכיפה מדינתי, שכן ייתכן שלמשתמש עומדת זכות ערעור על פעילות הרשות הממשלתית במדינה המדוברת. לשם מימוש זכות זו על המשתמש לדעת שפניה כזאת אכן התרחשה.
מה אפשר ומה אי אפשר לצפות ממפעילי הפלטפורמות הדומיננטיות?
ככלל, מרבית הפלטפורמות הדיגיטליות מעדכנות את משתמשיהן כאשר תוכן שהועלה על ידם מוסר מהרשת. עם זאת, במקרים רבים מידת הפירוט של דיווח זה לוקה בחסר. לדוגמה, בטוויטר (X) לא מודיעים למשתמש מהו כלל הקהילה שהוא הפר. ברשת פייסבוק תצורף להודעת ההסרה קישור לעמוד שבו מופיע כלל הקהילה המופר, אך בעמוד הזה יופיעו, במקרים רבים, שורה ארוכה של כללי קהילה. מטא אינה מפנה את המשתמש לכלל המסוים הרלוונטי. זאת ועוד, אף אחת מהפלטפורמות אינה מפרטת לפני המשתמש אם התוכן שהוסר הוסר בעקבות דיווח של גורם שלישי, מלבד חברת מטא המעדכנת את המשתמש אם ההסרה נבעה מפנייה של רשות ממשלתית. הפלטפורמות נמנעות גם מלהודיע למשתמש אם ההכרעה בעניינו נעשתה בידי מערכת אוטומטית או שעברה בחינה והכרעה של גורם אנושי.
בעניין עדכון המשתמשים על הכרעה בדבר הסרת תוכן שהם דיווחו עליו — מרבית הפלטפורמות אינן מתחייבות לשתף את המשתמש בהכרעה בעניין פריט התוכן. גם במקרים שבהם המשתמש מעודכן בהחלטת הפלטפורמה, עדכון זה נעשה לעיתים זמן רב אחרי ההכרעה בפועל, ואחרי ביצוע פעולת האכיפה. יודגש כי במקרים רבים יש הצדקה לעמימות הפלטפורמות בעניין זה. לעיתים עצם העדכון של המשתמש המדווח עשוי להוביל לפגיעה בפרטיותו של המשתמש שתוכנו דווח. עם זאת, מידת העמימות הרווחת בפלטפורמות היום חורגת מהנדרש לשם שמירה על פרטיות המשתמשים ומקשה על המשתמש המדווח לעקוב אחר השלכות דיווחו.
מה אפשר לעשות כדי ליישם את העיקרון הזה
אפשר לחייב את הרשתות לקבוע רף יידוע בסיסי שהמשתמש זכאי לו כאשר מוטלת עליו סנקציה מהפלטפורמה:
- חובת הודעה למשתמש על מחיקת תוכן שהעלה, השעיה או חסימת החשבון, או כל סנקציה אחרת הקשורה אליו, כולל פירוט הסיבה לכך ודרכי הערעור. כל זאת, בשפה שבה נכתב התוכן או בשפה של ממשק המשתמש.
- על ההודעה לכלול פרטים כגון מידע שיעזור בזיהוי התוכן שהוסר, ציון הנוהל המסוים שהמשתמש חרג ממנו, הסבר כיצד זוהה והוסר התוכן (סומן על ידי משתמשים אחרים, ״מדווחים אמינים", זיהוי אוטומטי או תלונה חיצונית, משפטית או אחרת), וכן מידע ספציפי על מעורבות של גורם שלטוני בדיווח או בדרישה לפעולה נגד תוכן או משתמש.
- תוכן שדווח על ידי רשות שלטונית צריך להיות מזוהה ככזה, אלא אם כן הדבר אסור על פי חוק.
- החובה להודיע למי שדיווח על תוכן המפר את כללי הקהילה מה הייתה תוצאת הדיווח. במידת הצורך, הודעה גם לגופים המדווחים ולמנהלי קהילות על החלטה בנוגע למחיקת תוכן, להשעייה או לחסימת חשבון או לכל סנקציה אחרת הקשורה אליהם.
- כדי להבטיח שלמשתמש יש אפיקי ערעור אפקטיביים, ההודעה תלווה במידע על דרכי הפנייה לפלטפורמה לשם הבהרות, ערעור, או הפניית דרישות משפטיות.
אנו סבורים שראוי לשים דגש מיוחד על עדכון המשתמשים בדבר הגורם שפנה ודרש את הטלת הסנקציה, ולאפשר להם לפנות לרשויות המשפט המדינתיות אם גורם שלטוני פעל נגדם בניגוד לחוק כדי להבטיח יכולת שימוש אפקטיבית בשני מסלולי ההשפעה על פעילות הרשתות, הפנימי והמשפטי. אשר לאפשרויות הערעור, כמו ב־DSA וב־OSB, אנו מציעים להעניק למשתמש יכולת לערער על כל סוג של החלטה שגויה המתקבלת על ידי הפלטפורמה בנוגע להסרה או להגבלת חשיפה של תוכן או של חשבון שלו.
נוסף על כך, כדי להבטיח כי הליך הערעור לא יהיה בבחינת מס שפתיים אנו מציעים לפעול כדי —
- להבטיח הליך ערעור ברור ונגיש למשתמשים, הכולל פרטים על מסגרת הזמן האפשרית לערעור ויכולת לעקוב אחר ההתקדמות.
- לערב ביקורת אנושית של אדם אחד או של פאנל של אנשים שלא היו מעורבים בהחלטה הראשונית ומכירים את השפה ואת ההקשר התרבותי הקשורים לערעור (כלומר, בהקשר שלנו, הכללת ישראלים דוברי עברית או ערבית, לפי ההקשר, בפאנל ביקורת־ערעור).
- לחייב את הפלטפורמות להודיע את תוצאות הבדיקה והערעור, כולל הנמקה מספיקה ומובנת, מתוך תשומת לב לזכות לפרטיות המוקנית למשתמש שהושפע מהחלטת הפלטפורמה.
מדוע העיקרון הזה חשוב?
למערכת הכלים המשמשת את הפלטפורמות לאיתור ולהסרה של תוכן פוגעני יש מגבלות רבות, והן מובילות לאכיפת חסר של כללי הקהילה (ובכלל זה האיסור על פרסום תוכן בלתי חוקי). כל עוד הפלטפורמות אינן יכולות לאכוף את כלליהן אכיפה אפקטיבית ושוויונית לבדן, מן ההכרח שישתפו בהליך זה גורמים חיצוניים שיסייעו להן ויבקרו אותן במידת הצורך.
עיקרון זה נכון שבעתיים בשווקים קטנים ובינוניים, דוגמת ישראל. ככלל, כל כלי האכיפה האוטומטיים המשמשים את הפלטפורמות הם כלים לומדים. כלומר, המערכת מעדכנת את כללי ההכרעה שלה על בסיס התוכן שהיא נחשפת אליו. ככל שהיא נחשפת לתוכן רב יותר, כך היא אפקטיבית ומדויקת יותר. אולם אפקטיביות זו אינה גורפת, אלא היא אפקטיביות בסינון תוכן המופיע בתוך ההקשר התרבותי והחברתי שממנו הגיע התוכן ה״מלמד״. דהיינו, אותה מערכת בדיוק יכולה להיות מדויקת מאוד בסינון של תוכן הנכתב על ידי משתמש במדינה מסוימת, אולם אפקטיבית הרבה פחות כאשר היא משמשת לסינון תוכן ממדינה אחרת. דוגמה מובהקת לכך היא קביעת מידת החומרה של מילות גנאי בבריטניה ובארצות הברית. אף שמרבית המשתמשים בשתי המדינות דוברים, כמובן, את אותה השפה, לעיתים מידת הפוגעניות של מילים מסוימות שונה בתכלית. לדוגמה, אף שהמילה Cunt מוכרת כמילת גנאי בשתי המדינות, בבריטניה היא נחשבת פוגענית הרבה פחות מבארצות הברית. כך גם בנוגע לפוגענות המילה Fag (שהיא כינוי שכיח לסיגריה בבריטניה, ובארצות הברית היא כינוי גנאי פוגעני להומוסקסואלים). מערכת לומדת המתורגלת בסינון המילים האלה בארצות הברית בלבד, תטיל סנקציה חמורה על משתמש בריטי שעשה שימוש באחת מהן אף שבהקשר החברתי והתרבותי שלו ההפרה חמורה פחות ומצדיקה הענשה מוגבלת. כמובן, מגבלות דומות קיימות בעת אימון מסנני תוכן אנושיים, ולכן הבעיה זו קיימת גם בעת ההסתייעות במסננים האלה.
כיוון שהיקף התוכן המשמש לאימון כלים לומדים במדינות קטנות כמו ישראל מצומצמם, אפקטיביות הכלים בהן לעולם אינה מגיעה לרמות האפקטיביות שלהן בסינון תוכן במדינות גדולות יותר. כלומר, עקב חקיקה המחייבת הורדת תוכן בלתי חוקי, הפלטפורמות נאלצות להשתמש במנהלי תוכן אוטומטים אף שהן יודעות שהם אינם עובדים כראוי. לכן הסתייעות בגורמים מקומיים כדי לבקר את פעילות הכלים ולהשלים אותם הכרחית במיוחד.
מה אפשר ומה אי אפשר לצפות ממפעילי הפלטפורמות הדומיננטיות?
ברוב המוחלט של הפלטפורמות הדיגיטליות ניתנת למשתמשים האפשרות לדווח על תוכן שהם חושבים שהפר את כללי הקהילה. עם זאת, המשאבים הנדרשים כדי לבחון את הדיווחים האלה רבים, ולכן פלטפורמות מערימות קשיים על משתמשים המבקשים לעשות זאת.
אשר להשתתפות משתמשים ונפגעים, הפלטפורמות אינן מתחייבות למסגרת זמן שבה יבחנו את הדיווח ואינן מתחייבות לעדכן את המדווח בהחלטתן. כאשר מדווח מקבל הודעה שפנייתו לא נענתה הוא אינו מקבל תמיד הסבר מדוע, והוא גם אינו יכול לערער על ההחלטה. לעיתים קרובות גם משתמשים שתוכן שלהם הוסר, מכל סיבה שהיא, אינם מקבלים אפיק ערעור אפקטיבי על החלטת הפלטפורמה.
מה אפשר לעשות כדי ליישם את העיקרון הזה
כדי ליישם את העיקרון הזה יש לקדם שורת כללים שמטרתם לצמצם את פערי הכוחות בין משתמשים לבין פלטפורמות מקוונות, על ידי יצירת חובה חוקית להעניק למשתמשים כלים להשתתפות בהליכי סינון התוכן של הפלטפורמות:
- כתנאי מקדמי אפשר לדרוש הקמת נציגות מקומית של הפלטפורמות, שעליה תוטל האחריות כלפי גורמי ממשל ישראליים, וחשוב מזה — כלפי משתמשים ישראלים. נוסף על כך, ניתן לדרוש כי למשתמשים הישראלים תהיה כתובת ברורה שתאפשר פנייה למפעילי הרשת החברתית. כאמור לעיל, היעדר כתובת כזאת היא סוגיה מרכזית הפוגעת בזכויות המשתמשים.
- יש מקום לעגן בחקיקה את הצורך באפיקי דיווח וערעור אפקטיביים הנגישים לכל המשתמשים, וגם לאנשים שאינם פעילים על גבי פלטפורמה מסוימת אך נפגעו מתוכן שהועלה אליה. יש לדרוש כי הפלטפורמות יתחייבו למסגרת זמן טיפול בפניות האלה, או לכל הפחות לשקיפות באשר למשך הזמן הזה, משך זמן שיאפשר ביקורת ציבורית במקרה של מענה בלתי אפקטיבי. כדי לוודא שימוש בפועל של משתמשים בערוצי הדיווח, יש לעודד משתמשים להשתתף ביצירת מרחב רשת בטוח על ידי דיווח וערעור על החלטות שגויות.
- אשר לשימוש ב״מדווחים אמינים״ כפי שתואר לעיל, השימוש בגופים האלה הכרחי להבטחת מרחב רשת בטוח, ויש לעודד פלטפורמות להקים מנגנונים מן הסוג הזה. עם זאת, חשוב גם שזהות המדווחים האמינים המסייעים למפעילי הרשת החברתית תהיה ידועה לציבור המשתמשים, כדי שיתאפשר דיון ציבורי בזהות הגורמים המקבלים יחס מיוחד בעת שהם מדווחים על תוכן בעייתי לרשת חברתית.
מדוע העיקרון הזה חשוב?
ההשפעות השליליות של תוכן בלתי חוקי או מזיק המועלה לרשתות חברתיות זולגות אל מעבר לקהל המשתמשים של הפלטפורמות עצמן. כפי שהוכח לא פעם, בישראל ובעולם, תוכן המועלה לרשתות חברתיות יכול לגרום לסכנות ממשיות מחוץ למרחב הרשת. היקפי השיח האלים ברשת בזמן מבצע שומר חומות ותרגומם לפעולות אלימות בשטחי המדינה הם דוגמה עדכנית המחדדת את הסכנה שהשיח ברשתות החברתיות יכול להוביל לפעולות בלתי רצויות מחוץ למרחב הרשת.
לכל מדינה יש אינטרס לצמצם ככל האפשר את הפגיעה הנובעת מתוכן מזיק ברמה הלאומית, אולם התערבות ממשלתית בפעילות הרשתות נגד תוכן כזה צריכה להיות מבוקרת בעיקרה. ככלל, התוכן המדובר זולג פעמים רבות לתחומים שהם במהותם פוליטיים, ובהיותם כאלה התערבות ממשלתית בהם מעלה קשיים חוקתיים רבים. על רקע זה, יש חשיבות ראשונה במעלה שהפלטפורמות הדיגיטליות ישתפו את הציבור במידע על אודות פעולות האכיפה שהן מבצעות באופן וולנטרי, כדי שהציבור יוכל לבחון את מידת ההתגייסות של הפלטפורמות לשמירה על מרחב רשת נקי. כמו כן, שקיפות זו תאפשר למדינה לבקר את אופן ההתמודדות של הפלטפורמות עם תוכן זה, ולנקוט צעדים אם התמודדות זו אינה עולה בקנה אחד עם הצורך החברתי ואינה מספיקה לשם איתור והסרה של תוכן שהוא בלתי חוקי ממילא.
מה אפשר ומה אי אפשר לצפות ממפעילי הפלטפורמות הדומיננטיות?
פלטפורמות התוכן המרכזיות, כגון מטא, יוטיוב (גוגל), טוויטר וטיקטוק, מפרסמות לציבור דוחות שקיפות תקופתיים הכוללים מידע על הסרות התכנים שלהן. עם זאת, הפלטפורמות המרכזיות אינן מספקות נתונים מפורטים על אסדרת תכנים בשל הפרת כללי הקהילה בישראל (אף שלעיתים הן מפרסמות נתונים מסוימים ממדינות אחרות), וכן יש שוני בין הפלטפורמות במידת הפירוט ובאופיו, ואי־אחידות זו אינה מאפשרת להשוות ביניהן או לקבל תמונת מצב כוללת על ישראל. יודגש כי המגמה הרווחת בקרב הפלטפורמות היא להגדיל את מידת השקיפות שלהן בתחום זה. ניתן לייחס זאת הן לדברי חקיקה חדשים באיחוד האירופי, המחייבים אותן למידת שקיפות בסיסית, הן לביקורת ציבורית ולקריאות מצד ארגוני חברה אזרחית. עם זאת, כל עוד הפלטפורמות אינן מחויבות לכך בחוק יוותרו היקף המגמה הזאת והשפעתה על שקיפות בכל הנוגע לתוכן ישראלי מוגבלת.
מה אפשר לעשות כדי ליישם את העיקרון הזה
כמו במהלכים החקיקתיים באירופה, יש לבחון את האפשרות לחייב את הפלטפורמות לפרסם דוחות שנתיים, בעברית ובערבית, המכילים נתונים בעניין פעולות ניהול התוכן שביצעו בשנה החולפת ביחס למשתמשי הפלטפורמה שמקורם בישראל. בכלל זה, הפלטפורמות יפרסמו דיווח על ניטור תכנים שהופקו על ידי משתמשי הפלטפורמה בישראל בשל מעורבות של גורם ממשלתי ישראלי.
כמו כן, הפעלת מערכת פרסומות בהתאמה אישית למשתמשים צריכה לכלול את מתן האפשרות לכל משתמש לדעת מדוע נחשף לתכנים פרסומיים מסוימים ולאפשר לו להימנע מסוגי תכנים מסוימים. לבסוף, יש להבטיח כי משתמשים יכולים לזהות בבירור שתוכן המוצג להם בפלטפורמה הוא תוכן פרסומי ומיהו המפרסם.
לפיכך, הצעותינו הן —
- מפעילים גדולים יחויבו לפרסם לציבור דוחות שנתיים, בעברית ובערבית, ובהם נתונים בדבר פעולות ניהול התוכן שביצעו בשנה החולפת ביחס למשתמשי הפלטפורמה שמקורן בישראל.
- מפעילים יפרסמו לכל הפחות פעם בשנה, בעברית ובערבית, דיווח על ניטור תכנים שהופקו על ידי משתמשי הפלטפורמה בישראל בשל מעורבות של גורם ממשלתי ישראלי.
- מפעיל המפעיל מערכת פרסומות בהתאמה אישית למשתמשים יאפשר לכל משתמש לדעת מדוע נחשף לתכנים פרסומיים מסוימים, וכן יאפשר לו להימנע מסוגי תכנים מסוימים.
- חובת שקיפות על פרסומות או תוכן מקודם: מפעיל יבטיח כי משתמשים יכולים לזהות בבירור שתוכן המוצג להם בפלטפורמה הוא תוכן פרסומי ומיהו המפרסם.