پیامدهای شگفت انگیز و هولناک رایانه هایی که می توانند یاد بگیرند

متن سخنرانی :
در گذشته اگه می خواستین یه رایانهکار جدیدی انجام بده،
باید برنامه اش رو بهش می دادین. خوب، برای اونایی کهتا حالا برنامه ننوشتن، این کار نیاز به تعریف جزئیات طاقت فرسای تک تک مراحلی داره که می‌خواینرایانه انجام بده تا به هدف مورد نظر شما برسه. حالا، اگه بخواین کاری انجام بدین کهخودتون نمی دونین چطور انجام میشه، با چالش بزرگی روبرو میشین.
خوب، این چالشی بود که رو در روی این مرد، آرتور ساموئل،قرار داشت. او در سال ۱۹۵۶، می خواست این رایانه بتونه اونو تو بازی چکرز (دام، جنگ نادر)شکست بده. چطور می‌تونین برنامه‌ای بنویسین، که با تمام جزئیات طاقت فرسا، به رایانه بگهچجوری می تونه تو بازی چکرز از شما بهتر باشه؟ خوب، ایده ای به ذهنش رسید: اجازه داد رایانه هزاران باربا خودش بازی کنه، و یاد بگیره چطور چکرز بازی کنه. و در واقع موفق شد،و در عمل، تا سال ۱۹۶۲، این رایانه تونسته بودقهرمان ایالت کانکتیکات رو شکست بده.
پس آرتور ساموئلپدر یادگیری ماشینی بود، و من دین بزرگی بهش دارم، چون کارم یادگیری ماشینیه. من رئیس کاگل بودم، با بیش از دویست هزار نفرکه کارشون یادگیری ماشینیه. کاگل مسابقاتی برگزار می کنه و از شرکت کننده ها می خوادمسئله هایی رو که قبلاً حل نشده ن حل کنن، و این رقابت صدها بار موفق بوده. پس به دلیل همین امتیاز،تونستم چیزای زیادی درباره کارهایی بفهمم که یادگیری ماشینیدر گذشته می تونست بکنه، امروز می تونه بکنه، و در آینده می تونه بکنه. احتمالاً اولین موفقیت بزرگ تجارییادگیری ماشینی گوگل بود، گوگل نشون داد یافتن اطلاعات از راه الگوریتم رایانه امکان پذیره، و اساس این الگوریتم، یادگیری ماشینیه. از اون هنگام، یادگیری ماشینیبه موفقیتهای تجاری بسیاری دست یافته. شرکت هایی مانند آمازون و نتفلیکس برای پیشنهاد محصولاتی که احتمالاً دوست دارین بخریناز یادگیری ماشینی استفاده می کنن، یا فیلمهایی که احتمالاً دوست دارین ببینین. گاهی این کار به طور نامحسوس انجام می شه. شرکتهایی مانند لینکدین و فیسبوک گاهی به شما درباره دوستهاتون می گن و شما نمی دونین این کارو چجوری انجام میدن، و دلیلش اینه کهاز قدرت یادگیری ماشینی استفاده می کنن. اینها الگوریتم هایی هستن کهیاد گرفتن این کار رو با داده ها انجام بدن به جای اینکه با دست برنامه ربزی بشن.
آی بی ام هم به همین ترتیب موفق شد کاری بکنه که واتسون در مسابقه تلویزیونی "محک"دو نفر از قهرمانان جهان رو شکست بده، با پاسخ به پرسشهای بسیار ریزو پیچیده مانند این یکی. [شیء باستانی "شیر نیمرود" در سال ۲۰۰۳(به همراه اشیای دیگر) از موزه ملی این شهر به سرقت رفت] همچنین به همین دلیله که حالا می تونیماولین خودروهای بدون راننده رو ببینیم. اگه بخواین تفاوت یه درخت و یه عابر پیاده رو تشخیص بدین،خوب، این خیلی مهمه. نمی دونیم چطور این برنامه ها رو با دست بنویسیم، اما حالا با یادگیری ماشینی،این کار امکان پذیره. و در واقع، این ماشینبیش از یک و نیم میلیون کیلومتر بدون هیچ تصادفیدر جاده های عادی راه رفته.
پس حالا می دونیم که رایانه هامی تونن یاد بگیرن، و رایانه ها می تونن کارهایی رو یاد بگیرن که در واقع خود ما گاهینمی تونیم انجام بدیم، یا شاید اونا بهتر از ما انجام می دن. یکی از عجیب ترین نمونه هاییادگیری ماشینی که دیده ام در پروژه ای بودکه در کاگل داشتم و در اون گروهی به سرپرستی جفری هینتون از دانشگاه تورونتو برنده مسابقه ی کشف خودکار دارو شد. خوب، نکته فوق العاده فقط این نبود که اونها همه الگوریتم های طراحی شده توسط مِرک یادانشگاههای بین المللی رو شکست دادن، بلکه این بود که هیچ یک از اعضای گروه، هیچ زمینه ایاز شیمی یا زیست شناسی یا علوم زیستی نداشتن، و این کار رو در دو هفته انجام دادن. چطور این کار رو کردن؟ اونها از الگوریتم فوق العاده ایبه نام یادگیری عمیق استفاده کردن. این خبر چنان مهم بود که موفقیت اونها چند هفته بعد روی جلد نیویورک تایمز منعکس شد. این جفری هینتونهاینجا سمت چپ. یادگیری عمیق الگوریتمی بر اساسنحوه کار مغز انسانه، و در نتیجه الگوریتمیه که از نظر تئوری هیچ محدودیتیدر توانایی انجام کار نداره. هر چه داده بیشتری به اون بدین،و با گذشت زمان بهتر می شه.
همچنین نیویورک تایمز در این مطلب به یه نتیجه خارق العاده دیگهاز یادگیری عمیق اشاره کرد که حالا به شما نشون میدم. اینجا می بینین که رایانه هامی تونن گوش بدن و بفهمن.
(ویدئو) ریچارد رشید: حالا، آخرین مرحله ای که میخوام انجام بدم در واقع اینه کهبه زبان چینی با تو صحبت کنم. نکته ی مهم اینه که تونستیم حجم بالایی از اطلاعات رواز تعداد زیادی چینی زبان جمع کنیم و یه سیستم نوشتار-به-گفتار ایجاد کنیم که نوشته های چینی روبه زبان چینی تبدیل می کنه، و بعد حدود یه ساعتاز صدای خودمو ضبط کردیم و از اون برای تنظیم سیستم استاندارد نوشتار-به-گفتاراستفاده کردیم تا شبیه من بشه. باز هم نتیجه ایده آل نیست. در واقع اشتباههایی وجود داره. (به زبان چینی) (تشویق) در این زمینه کار زیادی باید انجام بشه. (به زبان چینی) (تشویق)
جرمی هووارد: خوب، اینجا یه کنفرانسدرباره یادگیری ماشین تو چینه. در واقع در اغلب کنفرانسهای دانشگاهی، حضار اینطوری خودبخود تشویق نمی کنن، البته گاهی در کنفرانسهای تدکس پیش میاد،راحت باشین. همه چیزهایی که اونجا دیدینحاصل یادگیری عمیق بود. (تشویق) متشکرم. رونویسی به انگلیسییادگیری عمیق بود. رونویسی به چینی و نوشته یبالا سمت راست، یادگیری عمیق، و شکل گیری صدا نیزیادگیری عمیق بود.
یادگیری عمیق چنینپدیده ی خارق العاده ایه. یه الگوریتم واحد که به نظر میرسهبتونه تقریباً هر کاری بکنه، و فهمیدم که یه سال قبل،دیدن رو هم یاد گرفته. در این مسابقه عجیب از آلمان به نام مسابقه تشخیصتابلوهای ترافیکی آلمان، یادگیری عمیق تابلوهاییمثل این رو یاد گرفته بود. نه تنها میتونست تابلوها رو بهتر از هر الگوریتم دیگه ای بشناسه، بلکه جدول نشون میداداز انسان هم بهتره، تقریباً دو برابر بهتر از انسان. پس تا سال ۲۰۱۱،اولین نمونه ی رایانه هایی رو داشتیم کهبهتر از انسان می بینن. از اون موقع، اتفاقات زیادی افتاده. گوگل در سال ۲۰۱۲ اعلام کرد که دارای الگوریتم یادگیری عمیقی که ویدئوهای یوتیوب رو می بینه هستند و داده های اونو در عرض یه ماهتو ۱۶ هزار رایانه پردازش میکنه، و رایانه بطور مستقل موضوعاتیمثل آدمها و گربه ها رو یاد گرفته فقط با تماشای ویدئو. تا حدود زیادی شبیهیادگیری آدمه. برای یاد گرفتن آدمها لازم نیستبه اونا بگین چیزی که می بینن چیه، بلکه خودشون یاد میگیرن این چیزها چیه. همین طور در سال ۲۰۱۲،جفری هینتون که قبلاً دیدیمش، مسسابقه ی بسیار معروفایمیج نت رو برنده شد، که باید یک و نیم میلیون عکس رو نگاه می کرد و می گفت عکس چی هستن. حالا در سال ۲۰۱۴ تونستیمخطا رو به شش درصد در شناسایی تصویر پایین بیاریم. این هم بهتر از آدمه.
پس ماشین تو این کار خیلی بهتره، و حالا دارن تو صنعت ازش استفاده میکنن. مثلاً گوگل سال پیش اعلام کرد نقشه ی همه جای فرانسه رودر عرض دو ساعت تهیه کرده، و این کارو با استفاده از تصاویر دوربینهای خیابان انجام دادن و یه الگوریتم یادگیری عمیق که میتونستشماره خیابونها رو بخونه و بشناسه. تصور کنین قبلاً می تونستچقدر طول بکشه: چندین نفر، چندین سال. همین اتفاق داره تو چین میفته. بایدو یه جور گوگل چینیه، فکر کنم، و چیزی که اینجا سمت چپ و بالا می بینین نمونه ای از تصویریه که مندر سیستم یادگیری عمیق بایدو آپلود کردم، و پایینش می تونین ببینین کهسیستم فهمیده اون تصویر چیه و تصاویر مشابه رو پیدا کرده. تصاویر مشابه در واقع دارای زمینه مشابه، و جهت مشابه چهره ها هستن، حتی زبون بعضیا بیرونه. این جستجوی واضح یه متناز یه صفحه وب نیست. تمام چیزی که آپلود کردم یه تصویر بود. پس حالا رایانه هایی داریم کهچیزی رو که می بینن واقعاً میفهمن و بنابراین میتونن بانکهای اطلاعاتی صدها میلیون تصویری رودر یه لحظه جستجو کنن.
پس حالا اینکه رایانه ها میتونن ببیننیعنی چی؟ خوب، فقط این نیست کهرایانه ها میتونن ببینن. در واقع، یادگیری عمیقبیشتر از این انجام داده. جملات پیچیده و ظریف مثل این یکی حالا با الگوریتم هاییادگیری عمیق قابل فهمه. همون طور که میتونین اینجا ببینین، این سیستم مستقر در استنفوردکه نقطه قرمزی اون بالا داره به این نتیجه رسیده که این جملهبار عاطفی منفی داره. حالا در واقع یادگیری عمیقبه عملکرد انسان نزدیک شده در فهم اینکه جمله ها درباره ی چیهوهر جمله درباره اون چیزها چی میگه. هم چنین، یادگیری عمیقبرای خواندن متون چینی به کار رفته، باز هم در سطحی که معادلحرف زدن یه آدم چینی تبار اصیله، این الگوریتم در سویس ساخته شده توسط افرادی که هیچ کدوم نمی توننچینی حرف بزنن یا بفهمن. همون طور که گفتم،با استفاده از یادگیری عمیق یعنی استفاده از بهترین سیستمموجود در دنیا در این مورد، حتی در مقایسه بافهم یه آدم بومی اصیل.
این سیستمیه که ماتو شرکتمون جمع کردیم که نشون میده همه این چیزهاکنار هم جمع شده. اینها تصاویریه که هیچ متنیبه اونها پیوست نیست، و همینکه اینجا جمله هایی تایپ میکنم، در همون لحظه داره اون تصاویر رو میفهمه و داره تصمیم میگیرهموضوع اونا چیه و تصاویری رو که شبیه متنیه کهمن دارم می نویسم پیدا می کنه. پس می تونین ببینین که در واقعجمله های منو میفهمه و در واقع این تصاویر رو میفهمه. میدونم یه چیزی شبیه اینوتو گوگل دیدین، اونجا میتونین چیزهایی تایپ کنین وتصاویری به شما نشون میده، اما در واقع کاری که انجام میده اینه کهصفحه وب رو دنبال اون متن میگرده. این با فهم واقعی تصاویر خیلی فرق داره. این چیزیه که رایانه ها فقط تونستن برای اولین بار در چند ماه اخیر انجامش بدن.
پس حالا می بینیم که رایانه هاهم می تونن ببینن و هم میتونن بخونن، و البته، نشون دادیم که میتوننچیزی رو که می شنون بفهمن. شاید حالا عجیب نباشه کهمیخوام بگم میتونن بنویسن. این متنیه که دیروزبا یه الگوریتم یادگیری عمیق ایجاد کردم. و این متنیه که یه الگوریتماز استنفورد ایجاد کرده. هر دو جمله توسط الگوریتم یادگیری عمیق برایتوصیف این تصاویر ایجاد شده. این الگوریتم قبلاً هرگز ندیده بودیه مرد با پیراهن مشکی گیتار بنوازد. قبلاً یه مرد دیده بود،قبلاً مشکی دیده بود، قبلاً یه گیتار دیده بود، اما بدون کمک کسی توانست چنین توصیفنابی از این تصویر ایجاد کند. البته هنوز به سطح عملکرد انسان نرسیده ایم،اما به آن نزدیک شده ایم. در آزمونها، افراد توصیف های رایانه رو به نسبت یک به چهار ترجیح میدن. حالا این سیستم فقط دو هفته س به وجود اومده، بنابراین در عرض یه سال آینده، الگوریتم رایانه ای احتمالاً انسان رو پشت سر میذاره با این سرعت که کارها پیش میره. پس رایانه ها نوشتن هم بلدن.
پس همه ی اینها رو کنار هم میذاریم ونتیجه ش فرصت های بسیار مهیجی میشه. مثلاً، در پزشکی، یه گروه در بوستون اعلام کرده چندین ویژگی مهم یالینی از تومورها رو پیدا کرده که به دکترهادر تعیین پیش آگهی سرطان کمک می کنن. به طرز بسیار مشابه، در استنفورد، یه گروه اعلام کرده،با نگاه کردن به بافتها، با بزرگنمایی بالا، یه سیستم بر اساس یادگیریماشینی درست کردن که در واقع بهتر از دکترهای آسیب شناس میزان بقای مبتلایان به سرطان روپیش بینی می کنه. در هر دو مورد فوق،نه تنها پیش بینی ها دقیق تره، بلکه جنبه های جدیدی از بصیرت علمیبه وجود اومده. در مورد رادیولوژی، شاخص های بالینی جدیدی به دست اومدهکه انسان قادر به فهم اونهاست. در این مورد آسیب شناسی، سیستم رایانه ای در واقع فهمیدکه سلولهای اطراف سرطان به اندازه ی خود سلولهای سرطانی در رسیدن به تشخیص مهم هستن. این برخلاف چیزیه که دهها سالهبه آسیب شناسها یاد میدن. در هر یک از دو مورد فوق،اون سیستمها با ترکیبی از نظر خبرگان پزشکیو خبرگان یادگیری ماشینی شکل گرفت، اما از سال گذشته تا حالااز اون هم جلوتر رفتیم. این نمونه ای از تشخیص نواحی سرطانی بافتهای انسان در زیر میکروسکوپه. سیستمی که اینجا نشون داده شدهمیتونه اون نواحی رو دقیق تر از یا با دقت معادل دکترهای آسیب شناستشخیص بده، اما به طور کامل توسط یادگیری عمیق وبدون کمک تخصصی پزشکی ساخته شده توسط افرادی کههیچ سابقه ای در این زمینه ندارن. به طور مشابه، اینجا،این قطعه قطعه شدن عصب. ما حالا میتونیم اعصاب رو با دقتمشابه انسان قطعه قطعه کنیم، اما این سیستم با یادگیری عمیق ایجاد شده توسط افرادی که هیچ سابقه ی پزشکی ندارن.
پس خودم، به عنوان کسی کههیچ سابقه ی پزشکی ندارم، به نظر میرسه کاملاً آمادگی دارمیه شرکت جدید پزشکی تأسیس کنم، که همین کارو کردم. یه جورایی از انجام این کار میترسیدم، اما به طور نظری امکانش بود که با این فنون تحلیل داده بتونمکار پزشکی بسیار مفیدی انجام بدم. و شُکر که بازخوردش خارق العاده بوده، نه تنها از رسانه هابلکه از جامعه ی پزشکی، که خیلی حمایت کردن. فرضیه اینه که میتونیمقسمت وسط فرآیند پزشکی رو بگیریم و اونو تا حد امکانبه تحلیل داده ها تبدیل کنیم، و کارهایی رو که دکترها بهتر انجام میدنبه اونها بسپاریم. میخوام یه مثال براتون بزنم. حالا به وجود اومدن یه آزمایش تشخیصی جدیدحدود ۱۵ دقیقه طول میکشه و حالا اینو به طور زنده به شما نشون میدم، اما با برش چند قسمت فشرده ش کردم به سه دقیقه. بجای آزمایش تشخیص پزشکی میخوام یه آزمایش تشخیص تصاویرخودرو براتون بسازم، چون چیزیه که همه ی ما میفهمیم.
پس اینجا با حدود یک و نیم میلیونتصویر خودرو شروع می کنیم، و میخوام چیزی درست کنم که بتوناونها رو بر اساس زاویه ی عکاسی دسته بندی کنه. خوب همه ی این تصاویر بدون برچسب هستن،پس ناچارم از اول شروع کنم. با الگوریتم یادگیری عمیق ما، این سیستم میتونه به طور خودکارساختارهای هر تصویر رو شناسایی کنه. خوب نکته ی مثبت اینه که حالا انسان و رایانه میتونن با هم کار کنن. پس انسان، همون طور که اینجا میتونین ببینین، داره موارد مورد نظر روبه رایانه میگه و از رایانه میخواد با استفادهاز اونها الگوریتم خودشو بهتر کنه. حالا این سیستمهای یادگیری عمیقدر واقع در فضای ۱۶ هزار بعدی هستن، پس اینجا می تونین ببینینرایانه اینو در اون فضا میچرخونه، و سعی میکنه ساختارهایجدید رو پیدا کنه. و وقتی این کار روبا چنین موفقیتی انجام میده، فردی که داره هدایتش میکنهمیتونه نواحی مورد نظر رو نشون بده. پس اینجا، رایانه موفق شده نواحی، مثلاً زاویه ها رو پیدا کنه. پس طی این فرآیند، به تدریج به رایانه نکات بیشتر و بیشتری درباره یانواع ساختارهای مورد نظرمون میگیم. میتونین فرض کنین در یه آزمایش تشخیصی این میتونه یه آسیب شناس باشه که مثلاًنواحی آسیب رو شناسایی می کنه، یا یه رادیولوژیست که گره هایبالقوه مشکل دار رو نشون میده. و این گاهی ممکنهبرای الگوریتم مشکل باشه. در این مورد، یه جورایی سردرگم شد. جلو و عقب خودروها همه در همه. پس اینجا باید کمی بیشتر دقت کنیم، با دست جلو و عقب رو مشخص کنیم، بعد به رایانه بگیماین نوع گروهیه که منظور ماست.
پس این کار رو مدتی انجام میدیم،کمی ازش رد میشیم، و بعد به الگوریتم یادگیریماشینی آموزش میدیم بر اساس این چند صد چیز، و امیدواریم خیلی بهتر بشه. حالا میتونین ببینین کهبعضی از این تصاویر داره محو میشه، که نشون میده خودش کم کمبعضی از اینا رو میشناسه. پس میتونیم از این مفهوم تصاویر مشابهاستفاده کنیم، و با استفاده از تصاویر مشابه،حالا میتونین ببینین که، رایانه در این نقطه میتونهفقط جلوی خودروها رو کاملاً بشناسه. پس در این نقطه، انسانمیتونه به رایانه بگه، خوب، بله، کارت خوب بود.
گاهی، البته، حتی در این نقطه، جدا کردن گروهها مشکله. در این مورد، حتی بعد از اینکه رایانهمدتی اینجا میچرخه، هنوز می بینیم که سمت چپ و راست تصاویر همه در همه. پس دوباره میتونیم به رایانه کمک کنیم، و بگیم خوب، حالا سعی کنزائده ای رو پیدا کنی که سمت چپ و راست روتا حد امکان مشخص کنه به کمک این الگوریتم یادگیری عمیق. و با این کمک--آهان، بله، موفق شده. تونسته راهی پیدا کنهکه درباره این اشیا فکر کنه و اینها رو از هم جدا کنه.
پس ایده رو اینجا گرفتین. اینجا رایانه جای انسان رو نمی گیره، بلکه با هم کار میکنن. کاری که اینجا می کنیم اینه کهکاری که وقت یه گروه پنج یا شش نفره روحدود هفت سال می گرفت به سیستمی میدیم که همون کار رودر عرض ۱۵ دقیقه انجام میده فقط با یه نفر کهبه تنهایی کار میکنه.
پس این فرآیند حدود چهار یا پنج بار تکرار میشه. می تونین ببینین که حالاموفق شدیم ۶۲ درصد از یک و نیم میلیون تصویر رودسته بندی کنیم. و در این نقطه،میتونیم با سرعت تمام دسته ها رو به طور کامل بگیریم، و هر کدوم رو چک کنیم تامطمئن بشیم اشتباه نشده. در صورت اشتباه، میتونیماینو به رایانه اطلاع بدیم. و با این نوع فرآیندبرای هر یک از گروههای مختلف، حالا به موفقیت ۸۰ درصد در طبقه بندی یک و نیم میلیون تصویر رسیدیم. و این نقطه، جاییه که تعداد کمی تصویر درست طبقه بندی نشده، و سعی می کنه بفهمه چرا. و با استفاده از روش فوق، در عرض ۱۵ دقیقهبه میزان طبقه بندی ۹۷ درصد رسیدیم.
پس این نوع تکنیکبه ما امکان داد یه مشکل بزرگ رو حل کنیم، این مشکل که با کمبود نیروی تخصصیپزشکی در جهان روبرو هستیم. مجمع جهانی اقتصاد اعلام کردهبین ۱۰ تا ۲۰ برابر کمبود پزشک درجهان در حال توسعه وجود داره، و حدود ۳۰۰ سال طول میکشه تا تعداد کافی پزشکبرای حل این مشکل تربیت بشه. پس تصور کنین اگه بتونیمکارایی اونا رو افزایش بدیم با اساتفاده از این روشهاییادگیری عمیق، چی میشه؟
خوب این فرصتها منوبه شدت هیجان زده کرده. همچنین نگران مشکلات هستم. اینجا مشکل اینه کههر ناحیه آبی رنگ در این نقشه جاییه که میزان اشتغال در خدماتبیشتر از ۸۰ درصده. چه خدماتی؟ این خدمات. اینها دقیقاً همون چیزهایی هستنکه رایانه ها یاد گرفتن انجام بدن. پس ۸۰ درصد اشتغال در جهان توسعه یافته مربوط به کارهاییه کهرایانه ها بلد هستن. مفهومش چیه؟ خوب، مشکلی نیست.میتونن در مشاغل دیگه جایگزین بشن. به عنوان مثال، موقعیتهای شغلی بیشتریبرای دانشمندان علوم داده ایجاد میشه. خوب، نه واقعاً. دانشمندان علوم داده زمان زیادیبرای ساختن این چیزها صرف نکردن. به عنوان مثال، این چهار الگوریتمهمگی توسط یه نفر ساخته شده. پس اگه فکر کنید، اوه،قبلاً مشابه همین اتفاق افتاده، نتیجه شو در گذشته دیدیموقتی چیزهای جدید وارد میشه و شغلهای جدید جای اونا رو میگیره، این شغلهای جدید چه خواهد بود؟ برآوردش برامون خیلی سخته، چون عملکرد انسانی به تدریج رشد می کنه، اما حالا سیستمی داریم به نام یادگیری عمیق، که در واقع میدونیم که از نظر توانایی،سرعت رشد تصاعدی داره. و ما اینجاییم. پس در حال حاضر، چیزهای اطرفمون رو می بینیم و میگیم، "اوه، رایانه هاهنوز خیلی عقب هستن." درسته؟ اما در عرض پنج سال،رایانه ها از این جدول خارج خواهند شد. پس لازمه همین الان شروع بهفکر درباره ی این قابلیت کنیم.
البته اینو قبلاً یه بار دیدیم. در انقلاب صنعتی، با ورود موتورها شاهدیک گام تغییر در قابلیت بودیم. اما نکته این استکه پس از مدتی، همه چیز خراب شد. گسست اجتماعی اتفاق افتاد، اما وقتی استفاده از موتورها برای تولیدنیرو در موقعیتهای مختلف شروع شد، همه چیز واقعاً عادی شد. انقلاب یادگیری ماشینی بسیار متفاوت ازانقلاب صنعتی خواهد بود، چون انقلاب یادگیری ماشینی،هرگز عادی نمی شود. هر چه رایانه ها در امور ذهنیبهتر می شوند، می تونن رایانه های بهتری بسازنکه در امور ذهنی بهتر هستن، پس این نوعی تغییر خواهد بود که جهان هرگز پیش از اینتجربه نکرده، پس فهم قبلی شما متفاوت باچیزیه که ممکنه.
این قبلاً در حالتحت تأثیر قرار دادن ماست. در عرض ۲۵ سال اخیر،با افزایش بهره وری سرمایه، بهره وری کار ثابت مانده،در واقع کمی هم افت کرده.
بنابراین میخوام این بحث روالان شروع کنیم. میدونم که اغلب وقتی درباره یاین وضعیت به افراد توضیح میدم، ممکنه کسی اعتنا نکنه. خوب، رایانه ها در واقع نمی تونن فکر کنن، اونها احساس ندارن،شعر رو نمی فهمن، ما در واقع نمیدونیم چطور کار میکنن. پس چه؟ رایانه ها همین الان میتوننکارهایی بکنن که انسانها بیشتر وقتشون روصرفش می کنن و در مقابلش پول میگیرن، پس الان وقت آن استکه شروع کنیم به فکر درباره ی اینکه چطور قراره ساختارهای اجتماعیو ساختارهای اقتصادی خودمونو تغییر بدیم تا از این واقعیت جدید آگاه بشیم. متشکرم. (تشویق)

دیدگاه شما چیست؟

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *