אני משתדלת לא להזכיר בפוסטים שלי את המצב המלחמתי שאנחנו חיים בו, לא בגלל שהוא לא רלוונטי מבחינת נתונים או ניתוח אנליטי של סיטואציות, יותר בגלל המורכבות הרבה שאין לי שום סמכות או ידע מבוסס לעסוק בה לעומק הנדרש. אמנם במקביל למרוץ החימוש הצבאי שמתרחש בעולם גלובלי, אנחנו עדים בשנים האחרונות גם למרוץ חימוש טכנולוגי מרתק. הצדדים במערכה הזאת הם כביכול חברות טכנולוגיות ומדינות, שמתקוטטות על מניות כמו סמורים חולי כלבת. הכל כיף ומשחקים בינתיים, רק שלגמרי התעלמנו מצד מאוד מאוד משמעותי- ההמון הזועם.
בפוסט קודם הזכרתי בחטף את העובדה שמודלים של שפה זקוקים לכמויות דאטה עצומות כדי להתפתח ולתפקד. הכמויות האלו אמורות להגיע מאיתנו- הבטריות האנושיות שמספקות גם את המזון עצמו וגם טורחות להכין אותו פריך וטעים עבור המכונות בתהליכי דיגיטציה מורכבים. אבל מה קורה כשהשף מתעצבן על הסועדים? הוא יכול, מאוד בקלות אפילו, להרעיל אותם. אז הפעם- מה זה הרעלה של AI, למה יוצרי תוכן מעוניינים בכך, ואיך הם עושים את זה.

פלגריזם במאסות
ניתן לטעון שכל טכנולוגיה היא ניטרלית בבסיסה. גם הגרעין יכול לשמש להפקת חשמל ירוקה יותר או לחיסול של אוכלוסיות גדולות בעולם ללא הבחנה, אבל הטכנולוגיה עצמה לא מגיעה עם נטייה מוסרית כזאת או אחרת, בני האדם שעושים בה שימוש לטובה או לרעה- הם אלו שיטו את הכף לצד כזה או אחר. AI במובן הזה, היא טכנולוגיה ניטרלית בבסיסה, שתוכל לסייע לנו לאבחן מחלות קשות לאיתור, לזהות דפוסים באקלים, ולסייע בניהול משברים. מצד שני, אותה טכנולוגיה יכולה לשמש גם לצורך בניית אלגוריתמים מזיקים לסינון או איתור אנשים במערכות, ולגניבת תוכן. אותה מערכת שמוצאת חשבוניות מזויפות עבור מס הכנסה ופותרת בעיה של העלמת מיסים, יכולה לטרגט אותנו ברגע כצרכנים/ לקוחות/ תלמידים/ מועסקים בעייתיים ולהעניש אותנו עוד לפני שעשינו בעיה (למשל זיהוי של לקוחות כרטיסי אשראי שמקבלים מכתב מעורך דין עוד לפני שנכנסו לחוב פשוט כי הנתונים שלהם מאותתים למערכות החכמות שהם עלולים להוות בעיה בעתיד).
כמובן שכשאנחנו מנסים לשפוט שימוש בטכנולוגיה כטוב או רע, השאלה הבסיסית שצריך לקחת החשבון היא "טוב למי?". הסוגיה שתוצג בפוסט הזה היא כביכול שולית- פלגריזם, גניבת תוכן. יוצרי תוכן ואמנים מפיקים מעצמם תוצרים מקוריים וייחודיים שמבטאים את עולמם הפנימי, בין אם למטרות רווח ובין אם למטרות מימוש עצמי באופן לא כלכלי. הזכויות על הנכסים הדיגיטליים שלהם לא ברורות לגמרי, בעיקר כי העולם הדיגיטלי התפתח ומתפתח הרבה יותר מהר מעולם המשפט.
היסטוריה של פריצת זכויות יוצרים
כשהייתי ביסודי והייתי רוצה ללמוד את המילים לשיר שאני אוהבת, הייתי צריכה להקשיב לו בדיסקמן שלי, ולעצור את האודיו כל כמה שניות, לחזור אחורה, ולכתוב על דף את המילים שהצלחתי לקלוט. ההעתק הפחמני (carbon copy) שיצרתי חד משמעית שימש אותי בהמשך הדרך לשירה במקלחת, אבל הזכויות של היוצרים המקוריים לא התערערו כל כך. בהמשך חיי פגשתי את הפיתוח הטכנולוגי המרשים ביותר של זמנו (מבחינתי)- ליים וויר, קאזה, ואימיול. נכון שאלו כבר מערכות פיראטיות דור שני, אבל לי זה לא ממש היה משנה. בשלב הזה זכויות היוצרים על השירים התערערו באופן משמעותי. בשנים האחרונות שירותים כמו אפל מיוזיק וספוטיפיי (שעשו רווח פעם ראשונה בחייהם!) הגיעו כדי להציל את היוצרים.
כיום, קרואלרים של מודלים שונים יכולים לסרוק את הרשת הפתוחה ולאסוף טקסטים, כתבות, סרטונים, יצירות אומנות, שירים, קולות ייחודיים של זמרים, וסגנונות ולהוסיף אותם למאגר הנתונים הגדול והשמן שלהם. המודלים לא יכולים ליצור משהו שהם לא נתקלו בו, אלא רק ורסיה, או הומאז', לתוכן שכבר עוכל. השימוש החיובי בטכנולוגיה הזאת הוא הפקה של תמונות מדהימות ומרשימות, או סיכום של ספרי לימוד ארוכים לכמה פסקאות שניתן ללמוד מהן למבחן (מה שמצריך ממערכת החינוך חשיבה מחדש על כל הפעילות שלה). השימוש הפחות אידיאלי הוא גניבת תוכן ליוצרים שעמלו והפיקו משהו עם נשמה מתוכם.

המצב הפך לממש חמור, כשגנבי תוכן נכנסים ליוטיוב, סורקים סרטונים קיימים שאנשים יצירתיים ומשקיעים טרחו להעלות, מעתיקים את הכתוביות האוטומטיות של הסרטון, מעתיקים אותם, מעבירים לקבצים משלהם, ומעלים כסרטון ללא קרדיט עם קריינות בקול של סירי ומצגת זולה של קטעי וידאו של 3 שניות ברקע. כמויות מסחריות של סרטונים כאלה, ללא פנים, ללא שמות, ללא התעמקות בתוכן עצמו. דבר דומה קיים גם במחוזות ה-LO FI בספוטיפיי. אמנים על גבי אמנים שאינם אלא בוטים שגנבו מקטעי אודיו אמיתיים שסונתזו או הולחנו או נוגנו על ידי אנשים אמיתיים, ליצירה של קטעים חסרי נשמה שיעלו בפלייליסטים שאתם שמים ברקע.
האינטרנט הופך לעיר רפאים בה לפחות מחצית המשתמשים הם בוטים- בוטים שמייצרים תוכן, בוטים שמגיבים לתוכן, בוטים שמשתפים תוכן, בוטים שסורקים תוכן שבוטים אחרים הכינו, בוטים שאוכלים את התוכן שבוטים אחרים יצרו, הרבה הרבה אנשים אנושיים מבולבלים שממש מתגעגעים לתקופה שהתוכן שנתקלו בו הרגיש אמיתי, והרבה הרבה יוצרים שנמאס להם ממש להיות בתחתית שרשרת המזון הזאת.
אם ה-AI יאכל אותי, אני אדאג לכך שהבשר שלי יעשה לו כאב בטן נוראי
הזירה הנוספת של מירוץ החימוש הגיעה אל יוצרי התוכן, ועכשיו הם מנסים לפתח פתרונות טכנולוגיים שיסייעו להם להתמודד עם המודלים המתוחכמים שעושים שימוש בתוכן שלהם ללא רשותם. קצת קשה להתחבא ממכונות הסריקה של האינטיליגנציה המלאכותית, במיוחד כשיוצרי תוכן מייצרים את התוכן עבור הקהל הרחב, והנוכחות של היצירה שלהם במרחב הציבורי מהותית למשמעות שלהם. האופציה האלטרנטיבית היא הרעלה של התוכן.
הרעלה של AI (AI Poisoning) עובדת ככה- התוכן שמועלה לרשת כולל שני רבדים, אחד עבור בני אדם ואחד עבור בוטים. האנשים יקבלו את התוכן ויעכלו אותו באמצעות החושים המיושנים שלהם ויזכו לארוחת תוכן דשנה ומזינה, והבוטים יקבלו את אותה מנה בתוספת רכיבים ייחודיים שרק בוטים יכולים לעכל בחושי העל המפותחים שלהם, שישבשו להם את מערכת העיכול.
מנגנונים אחרים כוללים מחיקה של דאטה באופן נקודתי שמעוות את התמונה המלאה שהבוט מקבל, משחקי הצפנה כאלה ואחרים של האותיות וסדר ההופעה שלהם שמקשים על פיצוח המסר (בוטים לא מבינים שפה הם מזהים מידע באופן צילומי). בסופו של דבר המטרה היא זהה- הבוטים לא יוכלו להשתמש בתוכן שמועלה להפקה של תוכן משלהם, כי הכל יהיה ג'יבריש שהם לא מבינים או כי פיענוח שלו יצריך משאבים רבים מידי כשאפשר ללכת לטרוף תוכן אחר.
ההנחה היא שאכן מדובר במרוץ חימוש, וגם יוצרי התוכן שמדברים על השיטות שלהם מודעים לחלוטין לעובדה שכל פתרון הוא זמני מאוד וככל שהזמן יעבור המכונות יהיו חכמות יותר והיצירות שלהם יצטרכו הצפנה יותר ויותר מורכבת. העניין הוא פחות הפתרונות עצמם ויותר התעוזה של מי שפיתח אותם, כשלדעתי האישית מנגנונים כאלה הם יצירות בפני עצמן שיש מקום להעריך ולהציג לראווה.

איך מרעילים AI?
קוד כפול- כפי שניתן לראות בהסבר המאוד מפורט וחמוד של היוטיוברית F4mi, ניתן לעשות שימוש בקבצי .ass כדי להטמיע הנחיות לבוטים סורקים שהן בלתי נראות בכתוביות של הסרטונים שלה, בזמן שהן מייצרות הנחיות אחרות לגמרי לעיכול הדאטה והמטא-דאטה. באותו אופן שניתן להכניס דיוקים לטובת עיצוב הפונט, או סידור של התזמונים להופעת הטקסט על המסך בקבצי .str היא מטמיעה ג'יבריש בלתי שמיש ובעצם הופכת את התוכן שלה ללא ראוי או לא שווה את המאמץ למאכל.
נייטשייד (מיסוך תמונות)- הכלי שפותח באוניברסיטת שיקגו לוקח את ההרעלה צעד קדימה- לא רק שהמידע של אימג'ים הופך לבלתי קריא עבור הבוטים, כשהם מנסים לעכל אותו הוא עלול להשפיע על הדאטה שכבר קיים אצלם ולעוות תוצרים שהם יפיקו בעתיד. כלומר, לא מדובר רק בהגנה על זכויות היוצרים אלא בהתקפה של ממש, מין סוס טרויאני שמסבך את מאמני המודלים. המנגנון דומה לקוד הכפול רק בתמונה- העיניים האנושיות יראו תמונה אחת והבוט יראה תמונה אחרת לגמרי עם כותרת שלא תואמת ותבלבל אותו. גלייז (glaze) הוא כלי מקביל שמסייע בהצפנה של סטייל אומנותי.
מיסוך שמע- שימוש בקולות רקע או "סימני מים" אודיטוריים שמקשים על פיענוח של שפה דבורה. משמש בעיקר מול שיטות סריקה של אודיו כמו וויספר, שמנסות להתגבר על מכשולים בהסתמכות על סריקה של כתוביות מסרטונים.
גם כאן מדובר בטכנולוגיה ניטרלית מוסרית- הרעלה של מודלים יכולה לשמש כהגנת גרילה של יוצרי תוכן תמימים שמנסים להילחם בבוטים המרושעים, אבל גם כלוחמה של ממש נגד מודלים שיכולים לסייע לאנושות. ככה שחשוב לקחת את הכל באופן יחסי לצד שאתם מריעים עבורו. מקווה שכבר בחרתם.