יאהו היא המקור הפתוח שלה מודל הלמידה העמוק לזהות פורנוגרפיה - מחשוב - 2019

Anonim

מחפש לשמור על תוכן שאינו בטוח לעבודה מחוץ למסך העבודה שלך? בינה מלאכותית עשויה לעזור לך לעשות זאת. ביום שישי פרסם מהנדס המחקר של יאהו, ג'יי מהדיוקאר, והמנהל הבכיר של ניהול המוצר, ג'רי פזאוונטו, הודעה בבלוג בהודעה על שחרור מודל הלמידה העמוק של החברה שיאפשר למפתחים להתנסות עם מסווג עבור זיהוי NSFW ולספק משוב לנו בדרכים כדי לשפר את מסווג. "בעיקרו של דבר, יאהו פתוח המקור האלגוריתמים שלה לאיתור תמונות פורנוגרפיות.

"זיהוי אוטומטי של התמונה אינו מתאים / בטוח לעבודה (NSFW), כולל תמונות פוגעניות ומבוגר, הוא בעיה חשובה אשר החוקרים מנסים להתמודד עם עשרות שנים", כתב צוות יאהו ביום שישי. "עם האבולוציה של ראיית מחשב, נתוני אימון משופרים ואלגוריתמי למידה עמוקים, מחשבים מסוגלים כעת לסווג באופן אוטומטי את תוכן התמונה של NSFW באופן מדויק יותר".

עם זאת, מודל קוד פתוח או אלגוריתם לזיהוי תמונות NSFW אינו קיים כיום, ציין יאהו. ככזה, "ברוח של שיתוף פעולה ועם התקווה לקדם את המאמץ הזה", החברה ממלאת את הפער, ומספקת כלי למידה ממוקד המתמקד בתמונות פורנוגרפיות בלבד. הסיבה לסיבה זו, מסבירה יאהו, היא כי "מה שעלול להתנגד בהקשר אחד יכול להיות מתאים אחרת". אבל למטרות אלה, פורנו הוא בהחלט לא מתאים.

המערכת של יאהו משתמשת למידה עמוקה להקצות תמונה ציון בין 0 ל 1 כדי לקבוע בדיוק איך NSFW זה באמת. "מפתחים יכולים להשתמש בציון זה כדי לסנן תמונות מתחת לסף מתאים מסוים בהתבסס על עקומת ROC עבור מקרים ספציפיים לשימוש, או להשתמש באות זה כדי לדרג תמונות בתוצאות החיפוש", אמר יאהו. אבל זכרו כי אין ערובה לדיוק כאן - באמת, לשם אתם נכנסים. "מודל זה הוא מודל התייחסות כללית, אשר יכול לשמש לסינון ראשוני של תמונות פורנוגרפיות", נכתב בבלוג. "אנחנו לא מספקים ערבויות של דיוק של פלט, אלא, אנחנו עושים את זה זמין עבור מפתחים לחקור ולשפר כפרויקט קוד פתוח."