נקודות כאב אלה מונעות מחברות לאמץ למידה מעמיקה

מְחַבֵּר: Roger Morrison
תאריך הבריאה: 23 סֶפּטֶמבֶּר 2021
תאריך עדכון: 1 יולי 2024
Anonim
Personality Test: What Do You See First and What It Reveals About You
וִידֵאוֹ: Personality Test: What Do You See First and What It Reveals About You

תוֹכֶן


מקור: Agsandrew / Dreamstime.com

להסיר:

למידה עמוקה יש הרבה מה להציע לעסקים, אך רבים עדיין מהססים לאמץ אותה. כאן אנו מסתכלים על כמה מנקודות הכאב הגדולות ביותר שלה.

למידה עמוקה היא תת-תחום של למידת מכונה, שהיא (באופן כללי) היא טכנולוגיה בהשראת המוח האנושי ותפקודיו. לראשונה בשנות החמישים, נודע למידה במכונה באופן מצטבר על ידי מה שמכונה הרשת העצבית המלאכותית, שפע של צמתי נתונים קשורים זה בזה המהווים יחד את הבסיס לבינה מלאכותית. (לקבלת היסודות של למידת מכונות, עיין במכונת למידה 101.)

למידת מכונה מאפשרת למעשה לתוכנות מחשב לשנות את עצמן כאשר תתבקש על ידי נתונים או תכנות חיצוניים. מטבעו הוא מסוגל להשיג זאת ללא אינטראקציה אנושית. זה חולק פונקציונליות דומה עם כריית נתונים, אך עם תוצאות מכרות שעובדות על ידי מכונות ולא על ידי בני אדם. זה מחולק לשתי קטגוריות עיקריות: למידה בפיקוח ולא מבוקר.

למידת מכונה בפיקוח כרוכה בהשגת פעולות שנקבעו מראש באמצעות נתוני אימונים שכותרתו. במילים אחרות, תוצאות מפוקחות ידועות מראש על ידי המתכנת (האנושי), אך המערכת המסקנת את התוצאות מאומנת "ללמוד" אותן. לעומת זאת, למידת מכונה לא מבוקרת מסיקה מסקנות מנתוני קלט לא מסומנים, לעיתים קרובות כאמצעי לגילוי דפוסים לא ידועים.


למידה עמוקה היא ייחודית ביכולתה לאמן את עצמה באמצעות אלגוריתמים היררכיים, לעומת האלגוריתמים הליניאריים של למידת מכונה. היררכיות למידה עמוק יותר ויותר מורכבות ומופשטות ככל שהן מתפתחות (או "לומדות") ואינן מסתמכות על היגיון מפוקח. במילים פשוטות, למידה עמוקה היא צורה מתקדמת מאוד, מדויקת ואוטומטית של למידת מכונה, והיא נמצאת בחזית הטכנולוגיה של בינה מלאכותית.

יישומים עסקיים של למידה עמוקה

למידת מכונה נפוצה כבר כיום במספר תעשיות שונות. המדיה החברתית, למשל, משתמשת בו כדי לאצור עדכוני תוכן בתאריכי זמן של משתמשים. המוח של גוגל הוקם לפני מספר שנים מתוך כוונה לייצר למידה מעמיקה בכל מגוון השירותים של גוגל עם התפתחות הטכנולוגיה.

עם התמקדותו בניתוח חזוי, תחום השיווק מושקע במיוחד בחדשנות למידה עמוקה. ומכיוון שצבר נתונים הוא זה שמניע את הטכנולוגיה, תעשיות כמו מכירות ותמיכה בלקוחות (שכבר מחזיקות בשפע של נתוני לקוחות עשירים ומגוונים) ממוקמות באופן ייחודי לאמץ אותן ברמת הקרקע.

הסתגלות מוקדמת ללמידה מעמיקה עשויה בהחלט להיות הגורם המפתח שקובע עד כמה הסקטורים הספציפיים נהנים מהטכנולוגיה, במיוחד בשלבים המוקדמים ביותר שלה. אף על פי כן, כמה נקודות כאב ספציפיות מונעות עסקים רבים מלהוציא את הצעד להשקעה בטכנולוגית למידה עמוקה.


ה- V של Big Data ולמידה עמוקה

בשנת 2001, אנליסט של קבוצת META (כיום גרטנר) בשם דאג לייני, תיאר את החוקרים כשלושת האתגרים העיקריים של נתונים גדולים: נפח, מגוון ומהירות. למעלה מעשור וחצי לאחר מכן, העלייה המהירה של נקודות הגישה לאינטרנט (בעיקר בגלל התפשטות המכשירים הניידים והעלייה של טכנולוגיית IoT) הביאה סוגיות אלה לקדמת הבמה עבור חברות טק גדולות כמו גם עסקים קטנים יותר. וסטארטאפים כאחד. (למידע נוסף על שלושת ה- V, ראה אתגר ה- Big Data של היום נובע מגיוון, לא נפח או מהירות.)

אין באגים, אין מתח - המדריך השלב אחר צעד שלך ליצירת תוכנה לשינוי חיים מבלי להרוס את חייך

אינך יכול לשפר את כישורי התכנות שלך כאשר לאף אחד לא אכפת מאיכות התוכנה.

נתונים סטטיסטיים אחרונים על שימוש בנתונים גלובליים הם מדהימים. מחקרים מצביעים על כך שבערך 90 אחוז מכלל נתוני העולם נוצרו רק במהלך השנים האחרונות. התנועה הסלולארית ברחבי העולם הסתכמה בכ- 7 נפשות לחודש במהלך 2016, על פי הערכה אחת, ומספר זה צפוי לעלות בערך שבע פעמים במהלך חצי העשור הבא.

מעבר לנפח, המגוון (המגוון ההולך וגובר במהירות בסוגי נתונים ככל שהתקשורת החדשה מתפתחת ומתרחבת) והמהירות (המהירות בה נשלחת המדיה האלקטרונית למרכזי נתונים ורכזות) הם גם גורמים מרכזיים להתאמה של עסקים לתחום המתפתח. של למידה עמוקה. וכדי להרחיב את המכשיר הנמוני, נוספו מספר מילות v נוספות לרשימת נקודות הכאב הגדולות של נתונים גדולים בשנים האחרונות, כולל:

  • תוקף: מדידת דיוק נתוני הקלט במערכות נתונים גדולים. נתונים לא חוקיים שלא נעלמים עלולים לגרום לבעיות משמעותיות כמו גם לתגובות שרשרת בסביבות למידת מכונה.
  • פגיעות: נתונים גדולים מעוררים באופן טבעי חששות ביטחוניים, פשוט מתוקף המידה שלהם. ואף על פי שיש פוטנציאל גדול במערכות אבטחה המאפשרות למידה של מכונה, מערכות אלה בגלגוליה הנוכחיים מציינות מחוסר יעילותן, במיוחד בגלל נטייתן ליצור אזעקות שווא.
  • ערך: הוכחת הערך הפוטנציאלי של נתונים גדולים (בעסקים או במקומות אחרים) יכולה להיות אתגר משמעותי מכל מספר סיבות. אם לא ניתן לטפל באחת מנקודות הכאב האחרות ברשימה זו, הן למעשה יכולות להוסיף ערך שלילי לכל מערכת או ארגון כלשהו, ​​אולי אפילו עם השפעה קטסטרופלית.

נקודות כאב אליטרטיביות אחרות שנוספו לרשימה כוללות שונות, אמיתיות, תנודתיות והדמיה - כולם מציגים מערכות אתגרים ייחודיות משלהם למערכות נתונים גדולים. וייתכן שעוד יתווספו עוד ככל שהרשימה הקיימת (ככל הנראה) מתבצעת עם הזמן. למרות שזה אולי נראה קצת מקופח, הרשימה "v" המנומונית כוללת סוגיות רציניות העומדות בפני נתונים גדולים הממלאים תפקיד חשוב בעתיד הלמידה העמוקה.

דילמת הקופסה השחורה

אחד התכונות האטרקטיביות ביותר של למידה עמוקה ואינטליגנציה מלאכותית הוא ששניהם נועדו לפתור בעיות שבני אדם אינם יכולים. אותן תופעות שאמורות לאפשר זאת, לעומת זאת, מציגות גם דילמה מעניינת, שמגיעה בצורה של מה שמכונה "הקופסה השחורה".

הרשת העצבית שנוצרה בתהליך של למידה עמוקה היא כה רחבה ומורכבת עד כדי כך שתפקידיה המורכבים אינם ניתנים לפירוק להתבוננות אנושית. מדעני נתונים ומהנדסים עשויים להיות בעלי הבנה מעמיקה של מה שנכנס למערכות למידה עמוקה, אך כיצד הם מגיעים להחלטות התפוקה שלהם לעתים קרובות יותר מאשר לא מוסברים לחלוטין.

אמנם יתכן שזה לא נושא משמעותי עבור, למשל, משווקים או אנשי מכירות (תלוי במה הם משווקים או מוכרים), אבל תעשיות אחרות דורשות מידה מסוימת של אימות ותקיפות תהליכים על מנת להוציא כל שימוש מהתוצאות. חברת שירותים פיננסיים, למשל, עשויה להשתמש בלמידה מעמיקה כדי להקים מנגנון ניקוד אשראי יעיל ביותר. אולם לעיתים קרובות, ציוני אשראי חייבים להגיע עם הסבר מילולי או כתוב, שיהיה קשה ליצור אם משוואת ניקוד האשראי בפועל היא אטומה לחלוטין ובלתי ניתנת להסבר.

בעיה זו נמשכת גם למגזרים רבים אחרים, בעיקר בתחום הבריאות והבטיחות. רפואה ותעבורה עשויים להפיק תועלת בדרכים עיקריות מלמידה מעמיקה, אך גם עומדים בפני מכשול משמעותי בצורת הקופסה השחורה. כל פלט מביא לתחומים אלה, לא משנה כמה מועיל, ניתן יהיה למחוק אותה בשל הערפול המלא של האלגוריתמים שלהם. זה מביא אותנו לנקודת הכאב השנויה ביותר במחלוקת מכולם ...

רגולציה

באביב 2016 העביר האיחוד האירופי את תקנת הגנת המידע הכללית (GDPR), אשר (בין היתר) מעניקה לאזרחים את "הזכות להסבר" להחלטות אוטומטיות שנוצרו על ידי מערכות למידת מכונות ש"משפיעות עליהם "באופן משמעותי. התקנה מתוכננת להיכנס לתוקף בשנת 2018, ומעוררת דאגה בקרב חברות טק שמשקיעות בלמידה מעמיקה בגלל התיבה השחורה הבלתי חדירה שלה, מה שבמקרים רבים יפריע להסברים המונחים על ידי ה- GDPR.

"קבלת ההחלטות האוטומטיות האוטומטיות" ש- GDPR מתכוונת להגביל היא תכונה חיונית בלמידה מעמיקה. אך החששות מהטכנולוגיה הזו הם בלתי נמנעים (ותקפים במידה רבה) כאשר פוטנציאל האפליה הוא כה גבוה והשקיפות כה נמוכה. בארצות הברית מינהל המזון והתרופות מסדיר באופן דומה את הבדיקות והשיווק של תרופות בכך שהוא מחייב את התהליכים להישאר מבוקרים. זה הציג מכשולים לתעשיית התרופות, כפי שלפי הדיווחים, חברת הביוטכנולוגיה מבוססת מסצ'וסטס ביוגן, שנמנעה מלהשתמש בשיטות למידה עמוקה בלתי ניתנות לפרשנות בגלל הכלל של ה- FDA.

ההשלכות של למידה עמוקה (מוסרית, מעשית ומעבר להן) הן חסרות תקדים ולמען האמת, די עמוקות. חשש רב מקיף את הטכנולוגיה, במידה רבה בגלל שילוב של הפוטנציאל המפריע שלה וההיגיון והפונקציונליות האטום שלו.אם עסקים יכולים להוכיח את קיומו של ערך מוחשי בתוך למידה מעמיקה העולה על כל איומים או סכנות שניתן להעלות על הדעת, אז הם יוכלו לעזור לנו להוביל אותנו לשלב הקריטי הבא של בינה מלאכותית.