حکومت الگوریتم ها بر بشر در آینده نزدیک

در اکتبر سال ۲۰۰۵ به مناسبت شصتمین سالگرد ارائه طرح پیشنهادی MANIAC توسط فون نویمان و ACE توسط الن تورینگ، جورج دایسن (George Dyson) مورخ علم و تکنولوژی به دفتر مرکزی گوگل در کالیفرنیا دعوت شد تا به این سازمان و اجرای دقیق راهبردی که الن تورینگ در ذهن داشت نگاهی بیاندازد؛ این راهبرد همانا دعوت از تمام پرسش‌های ممکن، جمع‌آوری تمام پاسخ‌های موجود، و نگاشت ارتباط میان آن‌ها به عنوان نتیجه بود. در آن زمان گوگل به تازگی پروژه دیجیتالی کردنِ تمام کتاب‌های جهان را آغاز کرده بود و به دنبال آن به سرعت اعتراض‌ها نسبت به این پروژه شدت می‌گرفت؛ اعتراض‌ها نه از طرف نوسندگانِ کتاب‌ها که اغلب آنان خیلی وقت پیش مرده بودند، بلکه توسط عاشقان کتاب بود؛ آنان می‌ترسیدند کتاب‌ها، روح خود را از دست بدهند. اما این اعتراض چقدر درست بود؟ آیا ما با اسکن کتابها روح را از آنها می‌گیریم یا روح کتاب را اسکن و جسم آن را رها می‌کنیم؟ کتاب‌ها ترکیبی از تجسم فیزیکیِ فانی، با دانشی فناناپذیر و بی‌جسم هستند و هر نویسنده سعی می‌کند قطعه‌ای از حقیقت جهان را بر رشته‌ای تک‌بعدی از کلمات بریزد تا خواننده از درون این دریچه‌ی باریک به مشاهده آن بنشیند شاید که منظره‌ای سه‌بعدی در ذهن او شکل بگیرد. دانش درون یک کتاب، همانا روح آن است که می‌تواند ابدی باشد اگر از آن به خوبی محافظت شود.

فون نویمان در کنار کامپیوتر MANIAC، معماری‌ای که فون نویمان برای این کامپیوتر پیشنهاد داد هنوز بعد از گذشت بیش از 70 سال تغییر چندانی در کامپیوترهای امروزی نکرده است.
فون نویمان در کنار کامپیوتر MANIAC، معماری‌ای که فون نویمان برای این کامپیوتر پیشنهاد داد هنوز بعد از گذشت بیش از ۷۰ سال تغییر چندانی در کامپیوترهای امروزی نکرده است.

برخی دیگر از معترضان بر حقوق مولفین تاکید داشتند که با این کار نقض خواهد شد اما گوگل برای رفع این مشکل برخی از قسمت‌ها یا کل کتابهایی را که دارای حق کپی هستند از دسترس عموم خارج کرد. پرسشی که پیش می‌آید این است که چرا گوگل این سرمایه‌گذاری عظیم را برای ذخیره انبوه داده‌ها انجام داده است؟ یکی از مهندسان گوگل در آن بازدید برای جورج دایسن پاسخ این سوال را آشکار کرد: «ما همه‌ی آن کتاب‌ها را برای مطالعه‌ی مردم اسکن نمی‌کنیم، ما آنها را برای خوانده شدن توسط هوش مصنوعی اسکن می‌کنیم.»

این هوش مصنوعی که در حال خواندنِ تمام کتابهای جهان است، هر چیز دیگری را نیز می‌خواند، از جمله بیشتر کدهایی که توسط برنامه‌نویسان در طول چند دهه‌ی گذشته نوشته شده‌اند. این خواندن به معنای درک کامل و فهمیدنِ مفاهیم نهفته در آن نوشته‌ها نیست. هرچند شاید از درک ما نسبت به یک موجود زنده هنگام مطالعه‌ی ژنوم آن بیشتر باشد. این برنامه‌ی خاص، با یا بدون داشتنِ درک از آنچه می‌خواند در مواردی مخصوصا در بهبودِ یادگیریِ خود، موفق بوده است. تنها در هفتاد سال گذشته، کدِ نوشته شده برای اجداد این هوش مصنوعی به چند صد خط محدود بود و این برنامه‌ها بدون کمک انسان نمی‌توانستند پردازش خود را ادامه دهند. امروز نیز هوش مصنوعی نیازمند توجه دائمی انسان است و درست مانند نوزاد انسانی، از راهبرد حفاظت توسط دیگری برای حفاظت از خود بهره می‌برد اما با توجه به انگیزه‌ی قوی انسان‌ها برای بقا، هیچ هوش مصنوعیِواقعا باهوشی، اگر وجود داشته باشد، تا از امنیت خود مطمئن نشود خودش را برای ما آشکار نخواهد کرد. جورج دایسن بعد از جلسه‌ای که در گوگل داشت کتابی به نام «کلیسای جامع تورینگ: خاستگاه‌های جهان دیجیتال» (Turing’s Cathedral: The Origins of the Digital Universe) منتشر کرد و برای اولین بار به مردم هشدار داد تا فعالیت‌های بنیان‌گذاران گوگل را با حساسیت بیشتری دنبال کنند.

درک معانی کلمات

حالا دیگر گوگل محصولات بیشتری نسبت به گذشته دارد مثل سیستم عامل اندروید و کرومیوم، نقشه گوگل،  اسپیکر گوگل هوم، یوتیوب و … که همگی رفتار و اطلاعات کاربران در سرتاسر جهان را ذخیره و به هوش مصنوعی برای پردازش ارائه می‌دهند. اما گویا گوگل متوجه یک محدودیت در هوش مصنوعی خود شده است: عدم درک زبان و معنای کلمات.

چندی پس از آغاز پروژه‌ی اسکن کتاب‌ها، لری پیج مدیرعامل گوگل با رِی کِرتزوایل (Ray Kurzweil) دیدار و در شرکت تازه تاسیس او سرمایه‌گذاری کرد. کرتزوایل یکی از موفق‌ترین آینده‌پژوهان در حوزه فناوری است. او تاکنون ۱۴۷ پیش‌بینی موفق داشته است. کرتزوایل خیلی زودتر از گوگل به این نتیجه رسیده بود که سیستم‌های عصبی موازی که در پردازش‌های هوش مصنوعی از آنها استفاده می‌شود شبیه‌ساز مناسبی برای مغز نیستند. او در کتاب خود «چگونه یک ذهن خلق کنیم» (How to Create a Mind: The Secret of Human Thought Revealed) توضیح می‌دهد که سلول‌های نیوکورتکس (neocortex) در مغز انسان مسئول اصلی درک حواس، شناساییِ دیداریِ اشیاء و استخراج مفاهیم انتزاعی از آنها، کنترل حرکت، استدلال کردن در موارد مختلف از جهت‌یابی فضایی تا تفکر منطقی، و درک زبان است؛ اساسا، هرآنچه که ما به آن «فکر کردن» می‌گوییم در نیوکورتکس انجام می‌شود. دانشمندان عصب‌شناسی با بررسی‌های خود متوجه شدند که ساختار بنیادی نیوکورتکس دارای یکنواختی خارق‌العاده‌ای است و سازمان‌دهی این یکنواختی به صورت واحدهایی از ستون‌های قشری است که بارها و بارها تکرار شده‌اند. از منظر کرتزوایل هر یک از این ستون‌ها ماژولی است برای شناسایی و ذخیره الگوها و در طول زندگی یک انسان این ستون‌ها به مرور به یکدیگر متصل شده و نوعی سیم‌کشی ایجاد می‌کنند. این سیم‌کشی که بیان‌گر الگوهایی است که در طول زمان آموخته‌ایم بسته به نوع تجربیات و آموزش‌ها، در هر انسانی به گونه‌ای یکتا شکل می‌گیرد؛ اینجا در حقیقت از دانشی که درون ژنوم انسان ذخیره شده است فراتر می‌رویم چرا که این نوع سیم‌کشی از آغاز در کدهای ژنوم انسان نبوده است. نوع بشر نسبت به کامپیوتر توانایی ضعیف‌تری در پردازش منطقی دارد، اما قابلیت بنیادینِ عمیقی در شناسایی الگوها دارد. ما برای تفکر منطقی باید از نیوکورتکس استفاده کنیم که یک دستگاه عظیم شناسایی الگو است البته این دستگاه برای انجام محاسبه‌های منطقی خیلی ایده‌آل نیست با این حال برای انجام کارها فعلا همین امکانات را داریم. نرم‌افزار دیپ بلو (Deep Blue) که در سال ۱۹۹۷ گَری کاسپاروف را شکست داد در هر ثانیه قادر بود ۲۰۰ میلیون موقعیت شطرنج را تجزیه و تحلیل کند. از کاسپاروف پرسیدند در هر ثانیه چند موقعیت شطرنج را می‌تواند تجزیه و تحلیل کند، وی پاسخ داد کمتر از یکی! با این حال در سه بازی، کاسپاروف یک بار دیپ بلو را شکست داد یک بار مساوی کرد و بار آخر شکست خورد. این توانایی در مواجهه با قدرت پردازش بالای دیپ بلو به دلیل قدرت بالای انسان در شناخت الگوها است هرچند این توانایی نیازمند تمرین زیاد است به همین دلیل، همه نمی‌توانند استاد شطرنج شوند.

به این ترتیب کرتزوایل در حال حاضر روی پروژه‌ی شبیه‌سازی شبکه‌ی ماژول‌هایِ شناسایی الگو کار می‌کند، و همین امر لری پیج را به پروژه او علاقه‌مند کرد. علاوه بر سرمایه‌گذاری، لری پیج به کرتزوایل پیشنهاد داد که بر روی این موضوع فکر کند که چطور می‌توان به جای جستجوی کلیدواژه‌ها به جستجوی معانی بپردازیم؟ کرتزوایل راه‌حل را در توانایی ماشین در درک زبان می‌داند. او در حال حاضر پیش‌بینی کرده است که با کمک ماژول‌های شناسایی الگو و کار روی سیستم هوش مصنوعی برای درک زبان تا سال ۲۰۲۹ کاملا به این توانایی دست پیدا خواهیم کرد. محصولات گوگل مخصوصا اسپیکر گوگل هوم با ضبط صدای میلیون‌ها انسان در سرتاسر جهان، مستقیما به کرتزوایل در انجام این پروژه کمک می‌کنند.

یادگیریِ تقویتی

همزمان با این جریان، مهندسین گوگل بر روی سایر الگوریتم‌های هوش مصنوعی نظیر الگوریتم‌های یادگیری تقویتی (Reinforcement Learning) نیز کار می‌کنند. در برخی نمونه‌ها این الگوریتم سعی می‌کند با پردازش تصاویر به عنوان ورودی و با دانستن هدف، که معمولا به حداکثر رساندن امتیاز است و بدون داشتن هیچ اطلاعی از مفهوم تصاویر، بهترین راه رسیدن به هدف را پیدا کند. در این راه هرگاه الگوریتم به هدف می‌رسد یا به آن نزدیک می‌شود پاداش دریافت می‌کند. با پردازش این پاداش‌ها الگوریتم به تدریج بهینه‌ترین راه رسیدن به هدف را پیدا می‌کند. این الگوریتم‌ها بسیار پیچیده هستند و بررسی بیشتر یادگیری تقویتی به بحث مفصلی نیاز دارد که در اینجا مجال آن نیست. در ادامه تنها به برخی جنبه‌های ظاهری و خطرات احتمالی استفاده از آن می‌نگریم.

دانشمندان علوم کامپیوتر اغلب اذعان داشته‌اند که در هنگام شروع پروژه تصوری از مسائل سخت و مسائل آسان داشته‌اند که در اکثر اوقات، در هنگام پیاده‌سازی کاملا با خلاف آنچه تصور کرده بودند روبرو شده‌اند. در زمانه‌ای که الگوریتم دیپ بلو توانست کاسپاروف را شکست دهد، در حوزه رباتیک بهترین نمونه‌ی ساخته شده، یک جاروبرقی خودکار بود که وقتی به سه کنج اتاق می‌رسید گیر می‌کرد و نمی‌توانست خود را نجات دهد. این وضعیت دانشمندان علوم کامپیوتر را به این نتیجه رساند که ما در نرم‌افزار بسیار پیشرفت کرده‌ایم و باید روی رباتیک بیشتر کار کنیم. دو دهه بعد ربات‌ها آنچنان پیشرفت کردند که به راحتی طیف گسترده‌ای از حرکات و وظایف را می‌توانند انجام دهند. اما دانشمندان وقتی زمان آن رسید که نرم‌افزاری را به ربات الصاق کنند تا خودش یاد بگیرد چطور بطری را برداشته و یک لیوان را از آب پر کند متوجه شدند که این کار به غایت دشوار و چالش برانگیز است. اینجا بود که متوجه شدند در حوزه نرم‌افزار بسیار کند پیش رفته‌اند و در پی آن، در سالهای اخیر توجه به الگوریتم‌های یادگیریِ تقویتی به عنوان راه‌حلی برای این چالش‌ها بسیار مورد توجه قرار گرفته است.

نکته دیگری که در مورد یادگیری تقویتی باید به آن توجه کرد تنظیم هدف در این الگوریتم‌ها است. در هنگام تنظیم هدف باید دقت لازم را داشته باشیم وگرنه مثل پادشاهی می‌شویم که آرزو کرد دست به هرچیزی بزند طلا شود؛ وقتی آرزوی پادشاه برآورده شد فهمید دیگر نمی‌تواد غذا یا آب بخورد چون هنگام لمس آنها به جای غذا، طلا نصیبش می‌شد و آن پادشاه بعد از مدتی از گرسنگی مرد. به عبارتی هدف‌ها و پاداش‌هایی که به الگوریتم داده می‌شود باید به دقت و با حفظ اولویت‌ها تنظیم شوند. با توجه به اینکه الگوریتم‌های یادگیری تقویتی اساسا بر مبنای صورت‌بندی هدف، و دریافت پاداش در هنگام رسیدن یا نزدیک شدن به هدف پیاده‌سازی می‌شوند، گاهی خروجی کار خنده‌دار و یا به طور وحشتناکی زیان‌بار می‌شود. در یک مورد هدف ربات این بود که بالا بپرد و پاداشی که دریافت می‌کرد مقدار فاصله پای ربات تا زمین بود، نتیجه نهایی بعد از یادگیری این شد که هرگاه به ربات می‌گفتند بپر حرکتی شبیه به پشتک وارو انجام می‌داد و زمین می‌خورد چون الگوریتم یاد گرفته بود با این کار فاصله بیشتری از زمین پیدا می‌کند و در نتیجه پاداش بیشتری می‌گیرد. نمونه‌ها همیشه مثل این خنده‌دار نمی‌شوند در ادامه استفاده شبکه‌های اجتماعی از الگوریتم یادگیری تقویتی را بررسی می‌کنیم.

خروجیِ پیش‌بینی نشده

در سال ۲۰۱۰ یک فعال اینترنتی به نام ایلای پریسر (Eli Pariser) از اصطلاحی به نام فیلترینگ حبابی (filter bubble) استفاده کرد تا نشان دهد چگونه شبکه‌های اجتماعی، موتورهای جستجو و برخی سایت‌های خبری با آنالیز رفتار و علایق کاربران به پیش‌فرض‌هایی از کاربر دست پیدا می‌کند و سپس طبق آن، محتوایی را در تایم‌لاین کاربر نمایش می‌دهد که مورد پسند وی باشد و به این ترتیب آنان را درون یک حباب ذهنی منزوی می‌کنند و در نتیجه کاربر از سایر اطلاعات، عقاید و نظرها بی‌خبر می‌ماند.

شبکه‌های اجتماعی، موتورهای جستجو و سایتهای خبری با فیلتر کردن اختصاصی مطالب برای هر کاربر، آنان را درون یک حباب از ایده‌ها و نظرات محدود منزوی می‌کنند.
شبکه‌های اجتماعی، موتورهای جستجو و سایتهای خبری با فیلتر کردن اختصاصی مطالب برای هر کاربر، آنان را درون یک حباب از ایده‌ها و نظرات محدود منزوی می‌کنند.

حالا اگر همین مساله را از زاویه دیگری ببینیم یعنی از منظر الگوریتم‌های یادگیری تقویتی و افراد تنظیم‌کننده این الگوریتم‌ها، می‌فهمیم که تنظیم هدف این بوده است که درآمد حاصل از کلیک روی محتوا و تبلیغات باید به حداکثر برسد و الگوریتم، هر بار که موفق می‌شود کاربری را به کلیک ترغیب کند، پاداش می‌گیرد. شاید پیش‌بینی برنامه‌نویسان این بوده که الگوریتم به مرور و با دریافت اطلاعاتِ کلیک‌هایی که کاربر روی لینک‌ها انجام می‌دهد، با علایق، ویژگی‌ها و نیازهای کاربر آشنا می‌شود و در راستای همان ویژگی‌ها مطالب مورد علاقه کاربر را گلچین می‌کند. اما این چیزی نیست که الگوریتم‌های یادگیری تقویتی انجام می‌دهند؛ بنیان این الگوریتم‌ها این است که در محیطی که حضور پیدا می‌کنند بیشترین پاداش را بدست بیاورند. در این مورد، محیط همان ذهن انسان است و پاداش در حقیقت این است که کاربر بیشتر قابل پیش‌بینی باشد. بنابراین الگوریتم روی ذهن کاربر کار می‌کند تا عمل او را پیش‌بینی‌پذیرتر کند. این الگوریتم‌ها به مرور زمان و کم کم مقالاتی را برای کاربر ارسال می‌کنند تا او را از نظر گرایشات ذهنی به سمتی سوق دهند که بیشتر قابل پیش‌بینی باشد و در نتیجه، کلیک‌کننده‌ی قابل پیش‌بینی‌تری باشد و این تنها چیزی است که الگوریتم به آن اهمیت می‌دهد. اگر به عنوان مثال کاربران با طیف‌های مختلف سیاسی را بر روی یک خط فرضی رسم کنیم به طوری که در گوشه راست، کاربران با عقاید سیاسی راست رادیکال و در گوشه چپ کاربران با عقاید چپ رادیکال و در میانه کاربران معتدل قرار داشته باشند، آنگاه هر چه به گوشه‌ها حرکت کنیم می‌بینیم آنها قابل پیش‌بینی‌تر می‌شوند چراکه چشم‌انداز باریک‌تری از جهان دارند در نتیجه با اشتیاق روی مطالبی کلیک می‌کنند که دقیقا با جهان‌بینی آنان تطابق دارد و صحتِ عقاید آنان را تایید می‌کند. اما رفتار کاربری که در میانه طیف قرار دارد به سختی قابل پیش‌بینی است چون مطالب مورد علاقه آنان شامل انواع گسترده‌تری از دیدگاه‌ها است و در نتیجه تنها روی یک دیدگاه خاص تمرکز نمی‌کنند. برای الگوریتم‌ها کار بسیار دشواری است که این نوع کاربران را برای کلیک روی یک مطلب خاص ترغیب کنند. به این ترتیب الگوریتم‌ها یاد می‌گیرند که کاربران را به سمت گوشه‌های افراطی طیف‌های سیاسی هل دهند تا کاربرانِ پیش‌بینی‌پذیرتری باشند تا کلیکِ بیشتری کنند و در نهایت پاداش بیشتری برای الگوریتم به ارمغان بیاورند. به نظر می‌رسد با ادامه این روند و تاثیرگذاری روزافزون شبکه‌های اجتماعی و موتورهای جستجو بر روی مردم، در آینده جوامع انسانی هرچه بیشتر به سمت افراطی‌گری و کاهش مدارا و تحمل دیدگاه‌های متفاوت، حرکت کنند. در زمان حاضر نیز می‌توانیم ببینیم که سیاستمداران افراطی به تدریج قدرت بیشتری به دست می‌آورند و نرخ حملات تروریستی مسلمانان بر علیه مسیحیان و مسیحیان بر علیه مسلمانان کاهش نداشته است.

با دستیابی گوگل و سایر غول‌های نرم‌افزاری به فناوریِ تشخیص معانی واژگان و ترکیب آن با انواع الگوریتم‌های هوش مصنوعی نظیر یادگیری تقویتی و شروع پردازش روی انبوه داده‌هایی که تاکنون ذخیره کرده‌اند، در آینده شاهد نرم‌افزارهایی خواهیم بود که مثلا صبح شنبه، روشن می‌شوند و در ظهر سه‌شنبه معلوماتی به اندازه کل کتابهای جهان به علاوه تمام محتوای اینترنت دارند و البته اینبار به درکی از معانی این اطلاعات نیز دست یافته‌اند و از آن برای تصمیم‌گیری استفاده می‌کنند. سوال این است که دانشمندانی که روی این الگوریتم‌ها کار می‌کنند چگونه مطمئن می‌شوند که خروجی این الگوریتم‌ها در راستای منافع نوع بشر است. اصولا قبل از اجرای برنامه چگونه می‌توان نتایجِ عملیِ اجرایِ یک الگوریتمِ یادگیری با مکانیزم حرکت به سمت هدف برای رسیدن به پاداش بیشتر را پیش‌بینی و عملکرد آن را ضمانت کرد؟ آیا می‌توانیم مطمئن شویم سیستم‌های فوق هوشمندی که در آینده طراحی می‌شوند خلاف نظر و اهداف ما نیستند؟ در عمل، حل این مساله به طرز ناباورانه‌ای ناممکن به نظر می‌رسد؛ اول اینکه تنظیم و نوشتن خود اهداف یا آرزوهای ما به طوری که با هم تداخل نداشته باشند دشوار است و دوم اینکه باید تمام راه‌های غیرمعمول و ناخواسته‌ای را که ماشین فوق هوشمند برای تحقق اهداف ما پیدا می‌کند، پیش‌بینی و از وقوع آن جلوگیری کنیم.

اگر سیستم‌های فوق هوشمند مصنوعی را مانند یک جعبه سیاه ببینیم که از درون آن خبر نداریم آنگاه هیچ امیدی برای حل مساله نخواهیم داشت. در عوض، برای حل مساله باید این رویکرد را اتخاذ کنیم: یک مشکلِ رسمی به نام F تعریف کنیم؛ بعد سیستم هوش مصنوعی‌ای که حل کننده F است طراحی کنیم به طوری که در هر شرایطی و با صرف نظر از چگونگی حل F، ضمانت شده باشد که ما از راه‌حل خرسند خواهیم بود. اگر بتوانیم یک F با این ویژگی تنظیم کنیم آنگاه شاید به هوش مصنوعی قابل اعتماد و سودمند دست پیدا کنیم. البته در این روش، ماشین نباید اطلاعی از خرسندیِ ما داشته باشد چون بعد از این، راه‌حل نه در راستای حل مشکل که در راستای خرسندیِ انسان (صاحب ماشین) و دریافت پاداش بیشتر برای ماشین پیش خواهد رفت. در انتها باید به استادان، برنامه‌نویسان و دانشجویانِ فعال در حوزه هوش مصنوعی هشدار دهیم همیشه به خود یادآوری کنند که پیچیده‌گی‌هایِ پیاده‌سازیِ الگوریتم‌هایِ هوشِ مصنوعی، آنان را از اندیشیدن به راه‌حل مناسب برای پیشگیری از خروجی‌های پیش‌بینی نشده غافل نسازد. در واقع، هر هوش مصنوعی ممکن است در مسیری شگفتی‌ساز و خارج از سناریوهای باورپذیر حرکت کند. همیشه باید راهی باقی گذاشت که در چنین شرایطی، کنترل ماشین امکان‌پذیر باشد. دشواریِ اصلی همین جا است.

واژه‌ی «الگوریتم» حتماً به گوشتان خورده. برو بچه‌های کامپیوتر را که مطمئنم.

به‌طور خلاصه:

«الگوریتم به روش انجام یک کار به‌صورت مرحله‌به‌مرحله یا قدم‌به‌قدم گفته می‌شود».

این روش برای اولین بار در دنیا توسط دانشمند ایرانی «خوارزمی» ارائه شد و کلمه‌ی «الگوریتم» هم از واژه‌ی «الخوارزمی» گرفته‌شده است.

از این‌ها بگذریم و برگردیم سراغ بحث اصلی خودمان.

هیچ می‌دانستید هر موجودی در این جهان هستی، بر اساس الگوریتم‌های طراحی‌شده‌ای رفتار می‌کند؟

بعضی از این الگوریتم‌ها به‌صورت خودآگاه و برخی دیگر به‌طور ناخودآگاه اجرا می‌شوند. به‌عنوان‌مثال چگونگی عمل «غذا خوردن» توسط الگوریتم ارادی و طراحی‌شده توسط ما انجام می‌شود ولی انسان در الگوریتم عملیات «گوارش» و «هضم» غذا دخالتی ندارد و این کار به‌صورت ناخودآگاه توسط بدن انجام می‌شود.

مهم‌ترین الگوریتم انسان چیست؟

پاسخ به این پرسش به‌دشواری شنا کردن است در اقیانوس بیکران فضا!

می‌توان ازنقطه‌نظری خاص به این موضوع نگاه کرد.

به نظر من یکی از مهم‌ترین الگوریتم‌های انسان‌ها «زنده ماندن» است.

آدمی به‌گونه‌ای طراحی‌شده است که بتواند به هر قیمتی زنده بماند. «حفظ بقا» بالاترین و مهم‌ترین الگوریتم ارادی بشر است. نکته اینجاست که این الگوریتم کمی پیچیده است. پیچیدگی آن‌هم زمانی بیشتر می‌شود که انسان در شرایطی خاص برای حفظ بقا قرارمی‌گیرد و در مورد آن فکر می‌کند. لحظه‌ای که باید تصمیم نهایی را بگیرد.

همیشه گفته‌ایم که انسان دارای «اختیار» است.

موجودی که صاحب‌اختیار است باید بتواند انگیزه‌های اساسی‌اش را زیر سؤال ببرد و آن‌ها را به چالش بکشد.

مسلماً این نقد کردن در بعضی مواقع به تغییر اختیارات منجر می‌شود و همین موضوع است که به‌راحتی نمی‌توان بعضی از الگوریتم‌های رفتاری انسان‌ها را پیش‌بینی کرد.

دانشمندان، در این زمینه مطالعات فراوانی انجام داده‌اند و توانسته‌اند بسیاری از رفتارهای بشر را طبقه‌بندی کنند ولی هنوز در مواجهه با رفتارهایی که «اختیار» در آن نقش پررنگ‌تری دارد با مشکل روبرو می‌شوند.

حدس زدن رفتار آدمی در این‌گونه موارد دشوار است.

دوباره برگردیم به اصل موضوع.

با این توضیحات، آیا ما به‌عنوان موجودی به نام انسان، نمی‌توانیم الگوریتم‌های رفتاری خود را بازنگری کنیم؟

مهندسین نرم‌افزار در دو صورت الگوریتم‌های طراحی‌شده را تغییر می‌دهند:

  1. درصورتی‌که دچار خطا یا اشتباه شده باشد و خروجیِ آن معادل با چیزی نباشد که پیش‌بینی‌شده بود.
  2. هنگامی‌که آن الگوریتم درست کار می‌کند ولی می‌توان آن را به‌منظور بالا بردن سرعت و دقت یا به‌کارگیری فنّاوری جدید، بهینه‌تر کرد.

آیا تابه‌حال به الگوریتم‌های زندگی خود نگاهی کرده‌ایم؟

آیا زمان آن نرسیده که دو فرمول بالا را در مورد خودمان به کار بگیریم؟

مگر ما مهندس، طراح و مجری رفتارهای ارادی خودمان نیستیم؟

چه‌بسا ویروسی در سیستم‌عامل ما رخنه کرده و بعضی از الگوریتم‌های مهم زندگی ما را دست‌کاری کرده باشد.

چرا خود را ویروس‌زدایی نمی‌کنیم؟

اصلاً یادتان هست آخرین بار چه موقع ذهن‌تان را ویروس‌زدایی کرده‌اید؟

نتیجه:

همین‌الان قلم و کاغذی بردارید و مهم‌ترین رفتارهای ارادی و حساس خود را بنویسید و روش اجرای آن را به‌صورت گام‌به‌گام و الگوریتمیک بررسی کنید.

دو فرمول بالا را در مورد آن‌ها به کار ببرید و در صورت نیاز به تصحیح، آن‌ها را ویرایش کنید در غیر این صورت بهترین روش‌های ارتقاءشان را طراحی کنید؛ سپس بلافاصله الگوریتم جدید را اجرا نمایید.

ذهنتان را ویروس‌یابی کنید. ویروس‌ها یا تروجان‌های احتمالی را شناسایی و نابود کنید.

باور کنید کلی فضای خالی در اختیار حافظه‌تان قرار خواهد گرفت و دیگر مجبور نیستید برای بررسی و ذخیره‌ی یک مطلب، ذهنتان را تحت‌فشار زیاد قرار دهید.

الگوریتمی که به شما کمک می کند یک زندگی موفق را برنامه ریزی کنید

آیا شما از توصیه های افراد مختلفی که در مورد کسب موفقیت در زندگی به شما می کنند، خسته شده اید؟ توصیه ها و مشاوره هایی مانند: شما نیاز به یک هدف مشخص دارید؛ تردید نکنید؛ خودتان را با دیگران مقایسه نکنید؛ به دنبال علایق خود بروید و …

بله شما بارها این جملات را شنیده اید و حتی گاهی آن ها را در زندگی خود به کار برده اید، ولی متاسفانه نتوانسته اید نتایج دلخواه خود را به دست آورید. به همین دلیل است که باید چیز متفاوتی را امتحان کنید. شما باید از یک رویکرد جدید برای ادامه زندگی تان و دستیابی به اهدافی که دارید استفاده کنید تا با امید بیشتری مسیرتان را ادامه دهید و یک زندگی موفق خلق کنید.

تنها یک راه برای رسیدن به موفقیت در زندگی و ایجاد یک انقلاب اساسی وجود دارد. سعی کنید آن را پیدا کنید و بعد از آن با رضایت کامل به زندگی موفق خود ادامه دهید. این یک بازی جالب است که می تواند زندگی شما را به شدت تحت تاثیر قرار دهد و مسیری به سوی موفقیت برایتان باز نماید.

قدرت شگفت انگیز الگوریتم ها

قدرت شگفت انگیز الگوریتم ها

الگوریتم ها معمولا در جهان برنامه نویسی کامپیوتر یافت می شوند. اما به طور کلی، الگوریتم ها در همه جا هستند. الگوریتم ها، نتایج جستجوی شما در Google را تعیین می کنند و در فیس بوک پست هایی را که شما دوست دارید را با دیگران به اشتراک می گذارند. مثلا دستور العمل برای پخت غذا، یک الگوریتم است. روش مورد استفاده برای حل مشکلات بلند مدت، یک الگوریتم است. فرآیند ست کردن یک شلوار با یک پیراهن یک الگوریتم است. حتی همین که شما صبح ها از خواب بیدار می شوید، نیز می تواند یک الگوریتم باشد.

به طور خاص، الگوریتم ها یک فرایند گام به گام برای حل یک مشکل هستند. این مجموعه مقررات می تواند برای حل مسائل پیچیده و همچنین مقدماتی و پایه ای مورد استفاده قرار بگیرد. گاهی اوقات شما ممکن است یک راه حل ارائه دهید، ولی این راه حل در همه شرایط پاسخگو نباشد و نتواند مشکلات را حل کند. این موضوع به این معنی است که شما نیاز به یک الگوریتم بهتر برای رسیدن به موفقیت در زندگی دارید.

شما همچنین می توانید از راه حل های کارآمدتری که دیگران ارائه می دهند، استفاده کنید. به این ترتیب می توانید در زمان خود صرفه جویی کنید و کارهای بیشتری انجام دهید. تفکر الگوریتمی یا توانایی تعریف مراحل مشخص برای حل یک مسئله بسیار مهم است. این کار اجازه می دهد تا ما مشکلات را از پیش رو برداریم و راه حل های مفهومی را از لحاظ گام های گسسته در یک رویکرد بررسی کنیم.

یک الگوریتم معتبر باید دارای سه ویژگی باشد

۱ – باید محدود باشد

الگوریتمی که نتواند یک مشکل را حل کند، کاملا بلا استفاده است. بنابراین الگوریتم باید با قوانین محدود طراحی شود.

۲ – باید دستورالعمل های واضح داشته باشد

هر مرحله از الگوریتم باید به وضوح تعریف شود. دستورالعمل ها باید برای هر مورد واضح باشند.

تعریف مختصر و مفید الگوریتم این است: سلسله قوانینی که توالی انجام یکی سری عملیات را مشخص می‌کنند. این دستورالعمل‌ها به کامپیوتر می‌گویند که چگونه یک مشکل را حل کند یا به هدف خاصی برسد.

۱- موتور جستجوی گوگل

آه! زمانی را به خاطر می‌آورم که موتور جستجوی گوگل حاکم مطلق نبود و ما به تناوب از موتورهای جستجوی دیگر هم استفاده می‌کردیم. یادش به خیر یک زمان خودم شخصا عاشق موتور جستجو آلتاویستا بودم. یادتان می‌آید؟

اما بعدش گوگل آمد و دقت و امکانات این موتور جستجو که بسیار بهتر از موتورهای جستجوی دیگر بود، باعث شد همه رقبایش سرکوب شوند.

حالا دیگر جستجوی اینترنتی مترادف شده است با گوگل کردن و همه می‌خواهند سردبیاورند که برای یک سئوی خوب و کسب پیج رنک بهتر باید چه بکنند.

در حال حاضر در آمریکا گوگل ۶۶.۷ درصد بازار جستجوهای اینترنتی را دارا است و به دنبال آن مایکروسافت، یاهو، Ask و AOL قرار دارند. (به ترتیب با ۱۸.۱ درصد، ۱۱.۲ درصد، ۲.۶ درصد و ۱.۴ درصد)

6-3-2014 6-45-34 PM

شما ممکن است تصور کنید که موتور جستجوی گوگل همیشه منصفانه در پی آن است که محتواهای خوب و منطبق با جستجوهای ما را به رؤیت ما برساند، اما آنچه اخیرا بر سر سایت معتبر متافیلتر آمده است، خلاف این را ثابت می‌کند.

متافیلتر یک وبلاگ گروهی است که که لینک صفحات اینترنت را در مورد موضوعات جذاب برای کاربران جمع‌آوری می‌کند. یک زمانی، بسیاری از علاقه‌مندان فیلم، این سایت خوب را می‌شناختند، این سایت چکیده نقدهای منتقدان و سایت‌های مشهور را گردآوری می‌کرد، به این ترتیب ما خیلی سریع می‌توانستیم متوجه شویم که ده‌ها منتقد در مورد یک فیلم چه نظری داشتند.

اما متعاقب تغییراتی در الگوریتم گوگل، رنک این سایت افت کرد، در نتیجه ترافیک سایت کاهش زیادی پیدا کرد و همین امر منجر به کاهش آگهی‌های سایت، بحران مالی و دست آخر، اخراج نیمی از کارکنان شد.

6-3-2014 6-38-19 PM

به نظر می‌رسد که به حکم عقل، یک موتور جستجو نباید آنقدر حاکم بازار باشد که تغییر الگوریتم‌هایش، باعث تعطیل شدن یا به خطر افتادن یک کسب و کار خوب شود.

۲- نیوزفید فیس‌بوک

خواه فیس‌بوک را دوست داشته باشیم و خواه نه، باید اعتراف کنیم که درصد قابل ملاحظه‌ای از زمان کاربران اینترنتی در همین نیوز فید فیس‌بوک می‌گذرد.

بعضی‌ها دوست دارند که در اینجا به ترتیب زمانی همه فعالیت‌ها و به‌روزرسانی‌ها دوستان خود را ببینند، اما نیوز فید به همین سادگی‌ها نیست و برای خود الگوریتمی برای نمایش فیدها مهم دارد.

این الگوریتم با در نظر گرفتن شاخص‌هایی مشخص می‌کند که کدام مطلب لایق حضور در نیوز فید است و کدام مطلب، نه.

6-3-2014 6-52-59 PM

نیوز فید فیس‌بوک از یک سو، باعث صرفه‌جویی در وقت کاربران و پرهیز از نمایش مطالب کم‌اهمیت‌تر، اسپم یا دارای محتوای تبلیغی می‌شود و از سویی ممکن است کنترل کاربران برای دیدن فیدهای خاص را کاهش دهد یا کار و کاسبی‌هایی را که با زحمت فراوان هزاران لایک به چنگ آورده‌اند با خطر مواجه کند.

اما از سوی دیگر فیس‌بوک متهم است که با دخالت تصمیم‌گیرهای «انسانی» بر الگوریتم نیوزفید تأثیر می‌گذارد و بعضی از محتواها را عامدانه از نیوزفید بیرون می‌کشد. روزنامه‌نگارانی هستند که اعتقاد دارند، فیس‌بوک به دلایلی خبرهای مربوط به درگیری‌های سوریه را از نیوزفید بیرون کشیده است.

چه تضیمنی است که در موارد دیگر، مثلا در جنگ‌ها آفریقا یا بحران‌های انسانی دیگر این کار تکرار نشود. آخر برای فیس‌بوک که این چیزها مهم نیستند، چیزی که مهم است، میزان درآمد حاصله است!

۳- الگوریتم دوست‌یاب OKCupid

جالب است بدانید که دوست‌یابی‌های آنلاین این روزها برای خودش تبدیل به صنعتی دو میلیارد دلاری شده است! از سال ۲۰۰۸ به لطف رشد سایت‌هایی مثل Match.com، eHarmony و OKCupid این صنعت رشد سالانه ۳.۵ درصدی داشته است.

کارشناسان پیشبینی می‌کنند که در ۵ سال پیش رو هم دوست‌یابی‌های آنلاین رشدی فزاینده داشته باشند. علت این امر هم این است این الگوریتم‌های دوست‌یاب در مقام عمل در خیلی موارد منجر به ازدواج‌های موفقی می‌شوند و با در نظر گرفتن علایق و تمایلات زوج‌ها، به لطف الگوریتم‌های خود، کار دشوار انتخاب همسر را انجام می‌دهند!

جالب است بدانید که بر اساس یک پژوهش تازه مشخص شده است که در غرب یک سوم ازدواج‌ها، از یک آشنایی آنلاین آغاز می‌شوند!

6-3-2014 6-55-40 PM

6-3-2014 6-55-30 PM

حالا روی یکی از این سایت‌ها یعنی OKCupid متمرکز می‌شویم، این سایت را یک ریاضی‌دان دانشگاه هاروارد به نام «کریستین رادر» تأسیس کرد. این سایت با یک راهبرد تحلیلی با گرفتن اطلاعاتی از کاربران، دست به انتخاب می‌زند.

یکی از تفاوت‌های الگوریتم زوج‌یاب OKCupid این است که این الگوریتم نخست مشخص می‌کند که هر شاخص، چقدر برای یک فرد اهمیت دارد و بعد کار تطابق علایق کاربران را با هم انجام می‌دهد.

دنیای جالبی شده است. گاهی آدم با خودش فکر می‌کند که اگر استفاده از OKCupid در دنیا معمول بود، اصولا خیلی از ازدواج‌های موفق و ناموفق کنونی صورت نمی‌گرفت. در عین حال چنان که افتد و دانی، عشق آنچنان تناسبی با یک فرایند الگوریتمی ندارد، همزیستی‌های مسالمت‌آمیز چرا!

اینجاست که OKCupid هم می‌تواند خوب باشد و هم بد!

۴- الگوریتم گردآوری، پردازش و رمزنگاری سازمان ملی امنیت آمریکا

یک زمانی برادرهای بزرگ ما را می‌پاییدند، اما حالا برادرهای بزرگ جای خود را به «الگوریتم‌های» بزرگ داده‌اند. به لطف افشاگری‌های ادوارد اسنودن ما آگاه شده‌ایم که سازمان ملی امنیت آمریکا NSA و همکاران و نمونه‌های مشابهش در سراسر دنیا، در زندگی میلیون‌ها آدم عادی و غیرمظنون در دنیا سرک می‌کشند. اسناد درز پیدا کرده نشان می‌دهند که چندین برنامه کامپیوتری نظارتی به دولت‌ها آمریکا، استرالیا، کانادا، نیوزیلند و انگلیس، در این راه کمک می‌کنند.

این برنامه‌ها تماس‌های تلفنی، ایمیل‌ها، تصاویر وب‌کم‌ها و نیز تصاویر ماهواره‌ای را همواره بررسی می‌کنند.

6-3-2014 6-56-21 PM

NSA برای آرام کردن افکار عمومی و نیز تظاهر به رعایت قوانین، ادعا می‌کند که از نظر تکنیکی هیچ اطلاعاتی را «جمع‌آوری» نمی‌کند. آخر از نظر حقوقی «جمع‌آوری»، تعریف خاص خودش را دارد و به این معنی است که یک مأمور امنیتی دسترسی به اطلاعات خاصی در حین انجام وظیفه خود داشته باشد.

مثال ساده‌ای بزنم: اگر شما صدها جلد کتاب داشته باشید و از بین آنها فقط بیست – سی تایشان را خوانده باشید از دید NSA شما صدها جلد کتاب را جمع‌آوری نکرده‌اید، بلکه فقط همان بیست- سی تا را جمع‌آوری کرده‌اید!

از این دید اگر الگوریتم‌ها بیایند و به صورت ماشینی بدون دقیق شدن در تک‌تک تماس‌ها یا ایمیل‌ها با جستجو همواره به دنبال پیدا کردن چیزهای خاصی باشند، کار آنها جاسوسی نیست.

البته در این میان ما باید هم از الگوریتم رمزنگاری Suite B سازمان ملی امنیت آمریکا هم بکنیم، الگوریتم رمزنگاری‌ای که برای کار تبادل و ایجاد امضاهای دیجیتالی را در مورد اسناد طبقه‌بندی شده و غیرطبقه‌بندی شده انجام می‌دهد.

۵- الگوریتم‌های پیشنهاددهنده: ممکن است از این … هم خوشتان بیاید!

حتما در فروشگاه‌های آنلاین ایرانی هم دیده‌اید که بعد از خرید یک سری کالاها، به شما کالاهای مشابه برای خرید پیشنهاد می‌شوند، این فروشگاه‌های از الگوریتم‌های خیلی ساده‌ای برای این کار استفاده می‌کنند.

اما موضوع وقتی مهم می‌شود که به همین فرایند پیشنهاد در فروشگاه‌های بزرگ آمازون یا Netflix نظر بیفکنیم. ما از طرفی از این پیشنهادها خوشمان می‌آید، چون ما را کالاها و کتاب‌هایی آشنا می‌کنند که به خودی خودی، آنها را نمی‌شناختیم. اما زا سوی دیگر این الگوریتم‌ها می‌توانند منجر به محوبیت مصنوعی یک سری کالاها شوند و یا برای توده‌ها مردم، تعیین تکلیف کنند.

الگوریتم پیج‌رنک گوگل، نیوز فید فیس‌بوک یا الگوریتم‌های پیشنهاد آمازون می‌توانند منجر به پدیده‌ای به نام «حباب فیلتر» شوند، یعنی به دلخواه خودشان ما را چیزهایی که به نظر آنها مطلبوب نیست، جدا کنند. به جز «جبر» اطلاعاتی چه صفت دیگری می‌توان به این اطلاعات داد.

با این الگوریتم‌ها سوابق خرید یا وب‌گردی قبلی ما و الگوریتم‌ها برای ما تصمیم می‌گیرند.

6-3-2014 6-56-55 PM

شخصا زمان زیادی است که بیش از ۹۰ درصد کتاب‌هایم را آنلاین می‌خرم و در همین زمان اندک متوجه شده‌ام که با این خریدهای آنلاین، دیگر مثل سابق که شخصا به کتاب‌فروشی‌ها می‌رفتم، کتاب‌های خوب را تصادفی پیدا نمی‌کنم.

من با این خریدهای آنلاین، البته تعداد زیادی کتاب خوب را با سهولت زیاد خریده‌ام، اما در مقابل از کتاب‌هایی هم محروم شده‌ام و ممکن است تا آخر عمر متوجه آن کتاب‌ها نشوم!

جالب است بدانید که به تازگی متعاقب اختلافی که آمازون با یکی از تأمین‌کننده‌های کتاب به نام Hachette در اقدامی تعجب‌برانگیز کاری کرد که کتاب‌های این شرکت در قسمت پیشنهاد، درج نشوند و نیز شیوه طبقه‌بندی کتاب‌های آن را در آمازون مختل کرد!

6-3-2014 6-33-04 PM

۶- الگوریتم AdWords گوگل

AdWords منبع اصلی درآمد گوگل است و بر اساس رفتار، سوابق جستجو و میزان حضور کلمات کلیدی خاص، آگهی به کاربران نمایش می‌دهد.

۷- الگوریتم‌های خرید و فروش سهام

بارها از تلویزیون تصویر بازارهای سهام معتبر دنیای را دیده‌ایم و با دیدن آن همه هیاهو، گاهی تصور می‌کنیم که همه خریدها و تصمیم‌ها ماهیتی انسانی دارند.

چنین نیست! سرعت عمل در این بازارها بسیار مهم است و اگر لحظه‌ای دیر بجنبید، سهام باارزشی را از دست می‌دهید، به همین خاطر خیلی وقت‌ها این انسان‌ها نیستند که تصمیم می‌گیرند و همه چیز به الگوریتم‌های تصمیم‌گیر یا botها محول شده است تا در چند هزارم ثانیه همه چیز را ارزیابی کنند و تصمیم بگیرند و مبادرت به خرید کنند. بدیهی است که استفاده از این الگوریتم‌ها هم خالی از اشکال نیست.

6-3-2014 6-57-26 PM

۸- الگوریتم‌های فشرده‌ساز

اگر در سال ۱۹۸۷، محققان آلمانی الگوریتم فشرده‌‌ساز MP3 را توسعه نمی‌دادند، در سال‌های بعد و با رواج اینترنت، ما چگونه موسیقی جابجا می‌کردیم. بعضی‌ها هنوز که هنوز است ترجیح می‌دهند موسیقی را به صورت غیرفشرده گوش کنند، اما بسیاری از ماها از این الگوریتم‌ها راضی هستیم.

۹- الگوریتم CRUSH شرکت IBM

فیلم گزارش اقلیت یا Minority Report را به یاد می‌آورید، در آن فیلم برنامه‌های کامپیوتری قبل از وقوع جرایم، آنها را پیشبینی می‌کردند و با اعزام مأمورهایی از انجام جرایم پیشگیری می‌شد.

6-3-2014 6-58-30 PM

شرکت IBM از سال ۲۰۱۰ روی یک نرم‌افزار تحلیلی به نام CRUSH کار می‌کند که هدف از آن کاهس جرایم با بهره‌گیری از تحلیل اطلاعات است.

پلیس ممفیس با استفاده از همین نرم‌افزار از سال ۲۰۰۶ به موفقیت قابل توجهی رسیده است و آمار جرایم در این ناحیه در کل ۳۰ درصد کاهش داشته است و میزان جریام خشونت‌آمیز هم ۱۵ درصد کاهش داشته‌اند. شهرهای دیگری مثل لس آنجلس، سانتا کروز و چارلستون هم در مراحل ابتدایی استفاده از این نرم‌افزار هستند.

به نظر بسیار خوب به نظر می‌رسد که با توجه به داده‌های آماری، میزان جرم‌خیز بودن یک ناحیه مشخص شود یا مشخص شود که در صورت بروز چه عواملی مثلا تورم، شرایط آب و هوایی یا بحران‌های اجتماعی و سیاسی، احتمال خشونت بالا می‌رود و بعد به تناسب آن نیرو به ناحیه اعزام کرد یا تدابیر دیگری اندیشید.

در آینده احتمال دارد که مجرمین و افراد مشکل‌زار با فناوری‌هایی مثل GPS و حس‌گرهای زیستی همواره تحت نظر گرفته شوند و حتی از هواپیماهای بی‌سرنشین برای مداخله سریع استفاده شود.

اما مثل همه فناوری‌های دیگر، این فناوری هم بالقوه امکان سوء استفاده مثلا برای سرکوب مردم بی‌گناه را در بر دارد.

۱۰- الگوریتم‌های خودکار تنظیم موسیقی

الگوریتم‌های بعضی از سایت‌ها با تعیین شاخص‌هایی به شنوندگان خود موسیقی‌هایی برای شنیدن پیشنهاد می‌کنند. اما در مقابل الگوریتم‌هایی هم هستند که مطابق تمایل شنوندگان یا یک سری فاکتورهای دیگر، موسیقی را تنظیم می‌کنند.

الگوریتم‌ها از یک سو چیزهای خوبی هستند که باعث صرفه‌جویی در وقت ما یا دستیابی ما به محتواهای با کیفیت خوب می‌شوند، اما اگر انحصار یا مونوپلی در کار آنها حکمفرما باشد یا اینکه رؤسایی با اهداف صرفا مادی یا سیاسی در پشت پرده، روی کار این الگوریتم‌ها تأثیر بگذارند، می‌توانند منجر به خلق یک دنیای بی‌رحم، تاریک و خالی از عاطفه و تخیل انسانی شوند.

منبع: + و + و سایت یک پزشک و ویرگول و پرورش افکار و علوم داده ایران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *