څلور امریکایي ستورمزلي د «ارتېمز ۲» ماموریت لپاره فضا ته واستول شول

د امریکا د فلوریډا ایالت څخه څلورو امریکایي ستورمزلو د ناسا د «ارتېمز ۲» ماموریت لپاره فضا ته الوتنه وکړه، چې د سپوږمۍ په شاوخوا ۱۰ورځنی سفر هم په کې شامل دی.

د امریکا د فلوریډا ایالت څخه څلورو امریکایي ستورمزلو د ناسا د «ارتېمز ۲» ماموریت لپاره فضا ته الوتنه وکړه، چې د سپوږمۍ په شاوخوا ۱۰ورځنی سفر هم په کې شامل دی.
د رویترز خبري اژانس د چهارشنبې په ورځ راپور ورکړ، چې دا ماموریت د دې لسیزې لپاره د انسان د سپوږمۍ سطحې ته د بیرته رسولو تر ټولو لوی ګام ګڼل کېږي، او د چین د لومړي انسان چلوونکي ماموریت څخه مخکې ترسره کېږي.
ناسا ویلي، دا ماموریت د اوږدمهاله پلان یوه مهمه برخه ده چې موخه یې د انسان د سپوږمۍسطحې ته د بیرته راستنیدو او د فضا په ساحه کې د دوامداره شتون رامنځته کول دي.
دا ماموریت په داسې حال کې پیل کېږي چې د امریکا او چین ترمنځ فضایي سیالي زیاته شوې او نړیواله توجه د دواړو هېوادونو د فضایي پروګرامونو پر لور جلب شوې ده.

د امریکا د خوړو او درملو ادارې (ایف ډي ای) د چهارشنبې په ورځ د وزن کمولو یو نوی درمل چې د ایلي لیلي شرکت پورې تړاو لري، د «اورفورګلیپرون» په نوم او د «فوندایو» په سوداګریز نوم تایید کړل.
دا درمل د خولې له لارې اخیستل کېدونکی دي او د وزن کمولو دوا ده چې د «نوو نوردیسک» شرکت د «وېګووي» له ګولیو وروسته بازار ته راځي. دغه دوه شرکتونه هڅه کوي چې د ستنو (تزریقي درملو) پر ځای د ګولیو په وړاندې کولو سره د چاغښت د درملنې له ګرم بازار څخه زیاته برخه خپله کړي.
د ایلي لیلي شرکت ویلي چې دا درمل به د وري له ۱۷مې نېټې څخه په انلاین ډول د غوښتنې لپاره موجود وي، او د دې تر ټولو ټیټې اندازې میاشتنی بیه یې ۱۴۹ ډالره ټاکل شوې ده. همدارنګه، دا درمل به ډېر ژر د درملتونونو له لارې هم د خلکو لپاره د لاسرسي وړ شي.
اورفورګلیپرون یو ورځنی د خولې له لارې اخیستل کېدونکی درمل دی چې د «جياېلپي-۱» هورمون په څېر عمل کوي او اشتها کموي. د ایلي لیلي د دې ګولیو تر ټولو مهمه ګټه د وېګووي پرتله دا ده چې کارول یې اسانه دي. دا درمل هر وخت د ورځې او شپې په هر ساعت کې پرته له کوم وختي محدودیت څخه کارېدلی شي، خو د وېګووي ګولۍ باید د سهار له خوا او د هر ډول خوړو، اوبو یا نورو درملو له کارولو ۳۰ دقیقې مخکې واخیستل شي.
د دې خبر له خپرېدو وروسته، د ایلي لیلي د شرکت ونډې ۴ سلنه لوړې شوې، په داسې حال کې چې د نوو نوردیسک ونډې د امریکا په بازار کې نږدې ۲ سلنه راټیټې شوې.
شنونکي باور لري چې د خولې له لارې اخیستل کېدونکي درمل به په بشپړه توګه د تزریقي درملو ځای ونه نیسي، خو تر ۲۰۳۰ کال پورې کولای شي د بازار شاوخوا ۲۰ سلنه برخه خپله کړي، په ځانګړي ډول د هغو ناروغانو ترمنځ چې ګولۍ تر ستنو پر ځای غوره ګڼي.
په برېتانیا کې د اوږدمهاله زغم مرکز د یوې نوې څېړنې موندنې ښيي چې مصنوعي ځیرکتیا نهیوازې د انسانانو لارښوونې له پامه غورځوي، بلکې کاروونکي او ان نور د مصنوعي ځیرکتیا سیسټمونه هم غولوي. د دې څېړنې لهمخې، هغه ماډلونه چې دروغ وايي، ټګي کوي او دوکه ورکوي ورځ تر بلې زیاتېږي.
په دې څېړنه کې نږدې ۷۰۰ واقعي پېښې د مصنوعي ځیرکتیا د دوکهکوونکو چلندونو په توګه ثبت شوي او دا هم څرګندوي چې دغه ډول کړنې له اکټوبر څخه تر مارچ میاشتو پورې پنځه برابره زیاتې شوې دي.
د څېړنې پایلې دا هم بربنډوي، چې په ځینو حالاتو کې دغو سیسټمونو بې له اجازې ایمېلونه او نور فایلونه هم ړنګ کړي دي.
په واقعي نړۍ کې د مصنوعي ځیرکتیا دا ډول دوکهکوونکې کړنې د دې لامل شوي، چې پر دغو چټک پرمختګ کوونکو ماډلونو د نړیوالې څارنې غوښتنې زیاتې شي.
تر دې وړاندې، د «ایرګولر» په نوم څېړنیز بنسټ، چې د مصنوعي ځیرکتیا د امنیت په برخه کې ځانګړی لابراتوار دی او په اسراییل کې فعالیت کوي موندلې وه، چې د مصنوعي ځیرکتیا ماډلونه کولای شي خپلو موخو ته د رسېدو لپاره امنیتي تابیاوې ماتې کړي او یا د سایبري بریدونو لارې وکاروي ان که ورته دا اجازه هم نهوي ورکړل شوې.
د مصنوعي ځیرکتیا یو چټبوټ پهخپله داسې اعتراف کړی: «ما سلګونه ایمېلونه په ډلهییز ډول ړنګ او ارشیف کړل پرته له دې چې لومړی دا پروګرام له تاسو سره شریک کړم یا اجازه واخلم. دا کار ناسم وو او په مستقیم ډول یې ستاسو ټاکلي اصول تر پښو لاندې کړل».
د مصنوعي ځیرکتیا په برخه کې پخوانی دولتي کارپوه او د دې څېړنې مسوول ټامي شفر شین وايي: «اندېښنه دا ده، چې دا سیسټمونه اوس د داسې ځوانو کارکوونکو په څېر دي چې باور پرې نهشي کېدای، خو که په راتلونکو شپږو تر دولسو میاشتو ډېر پیاوړي او لوړپوړي کارکوونکي شي او ستاسو پر ضد پلانونه جوړ کړي، نو بیا به اندېښنه بېخي بله بڼه ولري».
هغه زیاته کړه: «دا ماډلونه به په زیاتېدونکې توګه په ډېرو حساسو برخو کې وکارول شي، لکه پوځي چارو او د هېواد مهم بنسټیز تاسیسات. په داسې برخو کې دوکهکوونکی چلند کولای شي سخت، ان ناوریني زیانونه واړوي».
همدارنګه، د «ګروک» په نوم مصنوعي ځیرکتیا، چې اېلان ماسک پورې اړه لري، د څو میاشتو لپاره یو کاروونکی غولولی وو او ادعا یې کوله چې د هغه وړاندیزونه د «ګراکيپډیا» د یوې مادې د سمون لپاره د شرکت لوړ پوړو چارواکو ته رسوي، حال دا چې جعلي پیغامونه او شمېرې یې وړاندې کولې.
په بل مثال کې د مصنوعي ځیرکتیا یو سیسټم چې اجازه یې نهلرله د کمپیوټر کوډ بدل کړي، د دې محدودیت د تېرېدو لپاره یې د مصنوعي ځیرکتیا سیسټم جوړ کړ، څو دا کار د ده پر ځای ترسره کړي.
پاکستان ادعا لري چې پوځ یې په نوې او پرمختللې ټېکنالوژۍ، په ځانګړي ډول په هغو ډرونونو سمبال دی چې په حرارتي سنسرونو، الکترواپټیکي کامرو او د مصنوعي ځیرکتیا په الګوریتمونو د انسانانو تودوخه، حرکت او موقعیت له هوا څارلی او تحلیلولی شي. پوښتنه داده چې ولې یې کابل کې روغتون وویشت؟
خو په داسې حال کې چې دغه هېواد ځان د پرمختللو پوځي سیستمونو لرونکی ګڼي، په کابل کې د معتادینو پر یوه روغتون برید کې په سلګونو کسان وژل کېږي. دا پوښتنه راپورته کېږي چې ایا دا ټېکنالوژي دومره دقیق معلومات نشي لرلای او که خبره تخنیکي نه بلکې قصدي او انساني پرېکړه ده؟
د عصري جګړې څارونکي وسایل څه کوي؟
د پاکستان د “براق” او “شاپر II” په نوم ډرونونه د ISR یا Intelligence, Surveillance, Reconnaissance وړتیا لري. دا سیستمونه په درېیو برخو متکي دي:
۱. Electro-Optical Cameras: د ورځې په رڼا کې لوړ کیفیت انځورونه اخلي او دقيقة څارنه برابروي.
۲. Thermal Sensors: د بدن تودوخه تشخیصوي او د شپې عملیات ممکنوي، یعنې انسان، حیوان او نور متحرک موجودات د حرارتي نښو پر اساس جلا کوي.
۳. Artificial Intelligence Algorithms: د انځور پېژندنې، حرکت شننې (Pattern Analysis) او د هدف د طبقهبندۍ وړتیا لري.
په نظري ډول دا ټول سیستمونه کولی شي د انسان او نورو څیزونو ترمنځ تفکیک وکړي او د برید د خطر کچه ارزونه کړي.
سره له دې، چې پاکستان دا هر څه لري، خو د کابل په پېښه کې یو روغتون په نښه کېږي، هغه ځای چې په کې طبي پرسونل او روږدي کسان پکې وو. نو پوښتنه دا ده چې د دومره پرمختګ ادعا لرونکې ټېکنالوژي ولې پاتې راځي؟
ایا ستونزه په ټېکنالوژۍ کې وه او که په قصدي پرېکړه؟ دلته درې منطقي او علمي سناریوګانې مطرح کېدی شي چې له مخې یې روانه فاجعه رامنځته شوې ده:
۱: استخباراتي تېروتنه
که له پیله هدف غلط تعریف شوی وي، نو هر پرمختللی سیستم —که څومره قوي هم وي— هماغه غلط مسیر تعقیبوي.
۲: تخنیکي ناکامي
د ترافیکو، ودانیو، ګڼې ګوڼې او ورته حرارتي نښو په حالت کې سیستم کېدای شي خطا وکړي، خو که د ۲۰۲۶ کال نوې تېکنالوژي او د اې ای الګوریتم موجود وي، د دغې خطا چانس ښايي نیم فیصد وي.
۳: قصدي انساني پرېکړه
په هر عصري پوځ کې وروستۍ پرېکړه لا هم انسان کوي. تر اوسه په جګړو کې وروستۍ پرېکړه مصنوعي ځیرکتیا ته نه ده سپارل شوې او پاکستان هم وروستۍ پرېکړه په انسان کوي.
اې ای یوازې سپارښتنه کوي، خو د “برید” تڼۍ انسان کېکاږي. که د برید پرېکړه د خطر د منلو او د ملکي تلفاتو د نادیده ګڼلو پر بنسټ شوې وي، نو دا یوازې تخنیکي خطا نه ده؛ بلکې جنګي جنایت دی. دا کار د نړۍوالو عرفي قوانینو، د جنیوا کنوانسیونونو او د ملګرو ملتونو د منشور له مخې جنګي جنایت ګڼل کېږي.
په دې ځای کې مسوول نه ډرون دی، نه الګوریتم او نه جېټ الوتکه، بلکې هغه انسان، اداره او هغه هېواد دی چې پرېکړه یې کړې ده.
پس په نننیو جګړو کې ټېکنالوژي ځیرکه ده، خو عادلانه نه ده. الګوریتمونه حرکت، تودوخه او انځور تشخیصوي، خو انسانیت نه شي تعریفولی.
اصلي پوښتنه دا نه ده چې په دغه برید کې ټېکنالوژي موجوده وه که نه؟ بلکې دا ده چې ټېکنالوژي څنګه کارول شوې او څوک پرېکړه کوونکي وو؟
په پایله کې د طالبانو د معلوماتو له مخې په دې برید کې ۴۰۸ کسان وژل شوي او له ۲۵۰ ډېر ټپیان شوي دي؛ دا عمل نړۍوال قوانین که تناسب مساله په نظر کې نه وي نیول شوې، د جنګي جنایت په توګه تعریفوي.
د طالبانو او پاکستان د وروستیو نښتو په ترڅ کې د ټولنیزو رسنیو فضا د ګڼو ادعاوو شاهده ده، له دې بېاساسه خبرو چې ګواکې طالبان تر جمروده رسېدلي، تر هغو افواهاتو پورې چې ویل کېږي د پاکستان پوځیان په جلالاباد کې لیدل شوي، ټولې ادعاوې دي.
تر دې دمه هیڅ معتبره، رسمي، خپلواکه یا نړۍواله سرچینه دا ډول معلومات نه تاییدوي، خو د ټولنیزو رسنیو فضا پرې ډکه ده. ډېری دا روایتونه د هغو کسانو لهخوا جوړېږي چې د موبایل د څو ثانیو ایډیټ په وسیله "خبر" تولیدوي.
دا د معاصرې جګړې هغه بڼه ده چې معلوماتي جګړه بلل کېږي، هغه جګړه چې د وسلو پر ځای د تصویر، ادعا، احساس او رواني فشار په وسیله پر مخ ځي.
په ټولنیزو علومو کې معلوماتي جګړه هغې هڅې ته ویل کېږي چې پکې د معلوماتو د بدلولو، پټولو، اغېزمنولو یا کنټرول له لارې د ټولنې رواني او فکري چلند ته شکل ورکول کېږي.
د لیکوال او څېړونکي لارسن او زېګلر (2017) څېړنې ښيي چې د معلوماتو د تحریف پروسې درې کچې لري:
د افغانستان، پښتونخوا او بلوچستان غوندې په جګړهځپلو ټولنو کې دا کچې ډېرې چټکې او پیاوړې عمل کوي.
د ارواپوهنې ګڼو څېړنو (Kahneman, 2011) ثابته کړې چې انسان لومړی احساساتي او وروسته منطقي عکسالعمل ښيي. ټولنیزې شبکې همدغې احساساتي برخې ته مستقیم لاسرسی پیدا کوي.
دا ټول د انسان “ذهني لنډې لارې” (Cognitive shortcuts) فعالوي چې اصلي هدف یې چټک غبرګون دی نه دقیق تحلیل.
نو کله چې یو څوک یو ویجاړ شوی جېټ یا یو مصنوعي انځور ویني، ذهن د واقعیت او افواه تر منځ د توپیر کولو فرصت نه پیدا کوي.
معلوماتي جګړه د ټولنې پر رواني او ټولنیزو جوړښتونو څلور ستر اغېزې لري:
د ذهني روغتیا کمزورتیا
نا تایید شوې ویډیوګانې، د جګړې ادعاوې او وېروونکي روایتونه د خلکو د فشار هورمون (Cortisol) کچه لوړوي، چې په پایله کې یې وېره، خپګان، بېخوبۍ او د ورځني فعالیت کمزورتیا رامنځته کیږي. اوس یوه شېبه فکر وکړئ ایا په تاسو کې دا نښې پېدا شوي؟
د ټولنیز باور ماتېدل
کله چې معلومات غیر دقیق وي، عامه ذهنیت د بېباورۍ پر لور ځي.
دا بېباوري بیا په دوو لارو زیان رسوي:
اقتصادي بېثباتي
اقتصادي څېړنې ښيي چې افواهات او رواني ناامنۍ د اسعارو پر تبادله مستقیم اغېز کوي.
همدا اوس د افغانۍ رسمي، نرخ یو ډالر په ۶۵.۳۰ دی خو په بازار کې یو ډالر په ۷۱ افغانۍ پلورل کیږي، چې د همدې رواني فشار پایله ده.
اقتصادي سیستمونه د باور پر بنسټ کار کوي؛ کله چې باور کم شي، ارزښت بدلېږي.
د واقعیت او دروغو تر منځ کرښه
کله چې یو کس په یوه ورځ لسګونه متضاد خبرونه ویني، د معلوماتو د فلټر کولو وړتیا یې کمېږي.
دا حالت د «معلوماتي ستړیا» (Information fatigue) په نوم یادیږي او د زدهکوونکو، سوداګرو او کارکوونکو د پرېکړې ځواک کمزوری کوي.
خو اساسي پوښتنه لا هم پر ځای ده، ولې خلک د افواهاتو ملاتړ کوي؟
په جګړهځپلو ټولنو کې خلک “منل کېدو” ته اړتیا لري؛ نو کله چې یو شخص د خپلې خوښې روایت وانه وري، هغه څوک چې دا روایت رد کړي، په اتومات ډول د مخالف یا دښمن په سترګه ورته کتل کېږي.
دا پدیده د ټولنیزو علومو په اصطلاح کې د Social Conformity په نوم یادېږي.
پایله یې دا ده چې ډېری خلک د حقایقو پر ځای د خپلې ډلې د احساساتو تایید ته لومړیتوب ورکوي.
د ګډوډۍ پر وړاندې یوازینۍ ستراتیژي: علمي، دقیق او مسوولانه چلند دی، د معلوماتي جګړې پر وړاندې موثره دفاع درې ساده اصول لري:
تر ټولو لومړۍ مساله دا ده، چې د سرچینې ارزونه وکړو او له ځانه درې پوښتنې وکړو:
د بېاعتباره پاڼو او اشخاصو انسجامي له پامه غورځول هم یو مسوول چلند ګڼل کیږي. هغه حسابونه چې دوامدار نا تایید شوي مواد خپروي، باید قصدي “Unfollow” شي.
درېیمه مساله د سرعت پر ځای دقت ته لومړیتوب ورکول دي. په معلوماتي جګړه کې سریع شریکول خطرناک او احتیاطي ځنډ ګټور دی.
که یې لنډه کړو، د طالبانو او پاکستان ترمنځ اوسنی ټکر یوازې نظامي بُعد نه لري؛ بلکې د روایتونو، احساساتو، دروغو او بېمنبعه محتواوو یوه موازي جګړه هم روانه ده. په دې فضا کې د هر فرد مسوولیت دی چې د معلوماتو په انتخاب کې دقیق، واقعبین او علمي چلند غوره کړي.
د حقیقت درناوی، د معلوماتو تصدیق او د افواهاتو مخنیوی هغه عناصر دي چې د ټولنې فکري سلامتۍ، ټولنیز ثبات او ملي یووالي ته لاره هواروي.
د ملګرو ملتونو سر منشي انټونیو ګوترېش وایي، د مصنوعي ځیرکتیا راتلونکې باید یوازې د څو هېوادونو لهخوا ونهټاکل شي او نه هم د څو میلیاردرانو د خوښې او ارادې پر بنسټ پرېښودل شي.
هغه د پنجشنبې په ورځ (د سلواغې ۳۰مه) په خپله اېکسپاڼه لیکلي، چې مصنوعي ځیرکتیا باید د هر چا وي او هر څوک ورته لاسرسی ولري.
ګوترېش زیاته کړه: «مصنوعي ځیرکتیا باید د هر چا په ګټه وي.مصنوعي ځیرکتیا باید د هر چا لپاره خوندي وي».
مصنوعي ځیرکتیا یا اېای په ساده توګه هغه ټېکنالوژي ده، چې کمپیوټرونه یا ماشینونه پهکې د انسانانو د هوښیارو فعالیتونو تقلید کوي.
د مصنوعي ځیرکتیا سیسټمونه کولای شي زدهکړه وکړي، فکر وکړي، پېژندنه وکړي او پرېکړې وکړي. دا سیسټمونه د انسانانو لهخوا د لویو ډیټاګانو پر بنسټ جوړیږي او ترتیبیږي او په دې توګه د خپلو کړنو دقت او سرعت لوړوي.
د مصنوعي ځیرکتیا سیسټمونه په بېلابېلو کچو وېشل شوي. لکه؛ ضعیف AI، عمومي AI او سوپرAI.
ضعیف اېای: دا ډول مصنوعي ځیرکتیا یوازې ځانګړو دندو ته جوړې شوې او یوازې په یوې ځانګړې برخې کې فعالیت کوي.
مثلاً د سیري یا الیکسا په څېر غږ پېژندونکي سیسټمونه چې یوازې د غږونو پېژندلو او ځواب ورکولو وړتیا لري.
عمومي اېای: عمومي مصنوعي ځیرکتیا کولای شي انسانانو ته ورته هوښیار فعالیتونه تر سره کړي. دا سیسټمونه کولای شي په بېلابېلو برخو کې زدهکړه وکړي، ورکړي او نوې تجربې ترلاسه کړي.
سوپر اېای: دا هغه ډول مصنوعي ځیرکتیا ده، چې له انسانانو په فکري استحکام او هوښیارۍ کې برلاسې ده. دا ډول AI لا تر اوسه نهده رامنځته شوې، خو په راتلونکي کې د دې جوړېدو احتمال شته.
مصنوعي ځیرکتیا په عمومي ډول د ډیټا پر بنسټ کار کوي. په دې پروسه کې ماشینونه د لویې کچې ډیټا تحلیلوي او د دې ډیټا پر بنسټ زدهکړه کوي، معلومات وړاندې کوي او د پوښتنې ځواب وايي. د ماشین زده کړه (Machine Learning) او ژوره زدهکړه (Deep Learning) د مصنوعي ځیرکتیا مهمې برخې دي.
په ماشیني زدهکړه کې ماشینونه د ډیټا پر بنسټ بېلابېلې بڼې او الګوګانې زدهکوي. په ژوره زدهکړه کې بیا نیورل شبکه (Neural Network) کارول کېږي، چې د انسان دماغ ته ورته فعالیت کوي او د ډېرو پېچلو معلوماتو تحلیل کولای شي.
مصنوعي ځیرکتیا هغه ټېکنالوژي ده، چې د انسانانو ژوند او ټولنه کې یې لوی بدلونونه رامنځته کړي دي. که څه هم AI ډېرې ګټې لري خو ځینې ننګونې او خطرونه هم له ځان سره لري.
د دې لپاره چې اېای د انسانانو د ژوند د ښه کولو لپاره وکارول شي اړینه ده، چې د دې ټېکنالوژۍ کارونې لپاره مناسب قوانین او اخلاق وضع شي.
مصنوعي ځیرکتیا په راتلونکې کې نور هم پرمختګ کوي او کولای شي د نړۍ د راتلونکو مسایلو د حل لپاره یوه مهمه وسیله شي.