آیا هوش مصنوعی می تواند دارو تجویز کند؟

آیا هوش مصنوعی می تواند دارو تجویز کند؟ به گزارش عصر لینک، خطاهای هوش مصنوعی امکان دارد غیر قابل جبران باشند، این مشکل جهت استفاده از هوش مصنوعی در حوزه پزشکی و مراقبت های بهداشتی شدیدتر خواهد بود و سلامتی انسان ها را به خطر خواهد انداخت.


به گزارش عصر لینک به نقل از ایسنا، موفقیت هوش مصنوعی در دهه گذشته به تشکیل اشتیاق بی حدوحصر و ادعاهای جسورانه انجامیده است؛ بااینکه کاربران به صورت منظم اشتباهاتی را که هوش مصنوعی مرتکب می شود، تجربه می کنند. یک دستیار دیجیتال مجهز به هوش مصنوعی می تواند گفتار یک شخص را به شیوه های شرم آوری اشتباه بفهمد، یک چت بات می تواند درباره ی حقایق توهم داشته باشد یا یک سیستم مسیریابی مبتنی بر هوش مصنوعی ممکنست رانندگان را در یک مزرعه ذرت به شکل اشتباه راهنمائی کند. همه این موارد ممکنست بدون خطا هم انجام شوند.
به نقل از کانورسیشن، مردم این خطاها را تحمل می کنند برای اینکه هوش مصنوعی وظایف خاصی را کارآمدتر می کند. طرفداران به صورت رو به ازدیادی از به کار بردن هوش مصنوعی -گاهی اوقات با نظارت محدود انسانی- در زمینه هایی مانند مراقبت های بهداشتی که خطاها هزینه بالایی دارند، حمایت می کنند. بعنوان مثال، لایحه ای که در اوایل سال ۲۰۲۵ در مجلس نمایندگان آمریکا ارایه شد، به سیستم های هوش مصنوعی اجازه می دهد تا داروها را به شکل خودکار تجویز کنند. از آن زمان، محققان حوزه بهداشت و همین طور قانون گذاران درباره ی اینکه آیا چنین تجویزی ممکن یا سفارش می شود، بحث کرده اند.
هنوز معلوم نیست که اگر این قانون یا قانون مشابه تصویب شود، چنین تجویزی دقیقاً چه طور عمل خواهدنمود اما این قانون، میزان خطاهایی را که توسعه دهندگان هوش مصنوعی می توانند اجازه ارتکاب آنها را به فناوری های خود بدهند، بالا می برد و اگر این فناوری ها به بروز نتایج منفی -حتی مرگ بیمار- منجر شوند، عواقبی خواهد داشت.
به صورت ویژه برای هوش مصنوعی، خطاها ممکنست نتیجه اجتناب ناپذیر نحوه عملکرد سیستم ها باشند. پژوهش های لابراتوار «کارلوس گرشنسون»(Carlos Gershenson) استاد نوآوری «دانشگاه بینگهمتون»(Binghamton University) نشان می دهند که خاصیت های خاص داده های مورد استفاده، در آموزش مدلهای هوش مصنوعی نقش دارند. صرف نظر از اینکه محققان چقدر زمان، تلاش و بودجه را صرف بهبود مدلهای هوش مصنوعی می کنند، بعید است که این وضعیت تغییر کند.

هیچ کس، هیچ چیز و حتی هوش مصنوعی بی نقص نیست

زمانی «آلن تورینگ»(Alan Turing) پدر علم کامپیوتر اظهار داشت: «اگر انتظار می رود یک ماشین معصوم باشد، نمی تواند هوشمند نیز باشد.» دلیلش اینست که یادگیری، بخش اساسی هوش است و مردم به طور معمول از اشتباهات درس می گیرند.
گرشنسون اظهار داشت: من و همکارانم در پژوهشی که در ژوئیه ۲۰۲۵ انتشار یافت، نشان دادیم که سازمان دهی کامل مجموعه داده های خاص در گروههای واضح ممکنست نا ممکن باشد. بعبارت دیگر، ممکنست حداقل میزان خطایی وجود داشته باشد که یک مجموعه داده مشخص را ایجاد می کند؛ فقط بدین سبب که عناصر خیلی از گروه ها با یکدیگر هم پوشانی دارند. برای بعضی از مجموعه داده ها که زیربنای اصلی خیلی از سیستم های هوش مصنوعی هستند، هوش مصنوعی بهتر از شانس عمل نخواهد کرد.
خاصیت های خاص داده های مورد استفاده، در آموزش مدلهای هوش مصنوعی نقش دارند. صرف نظر از اینکه محققان چقدر زمان، تلاش و بودجه را صرف بهبود مدلهای هوش مصنوعی می کنند، بعید است که این وضعیت تغییر کند. بعنوان مثال، مدلی که برپایه مجموعه داده های به دست آمده از میلیونها سگ آموزش دیده است و فقط سن، وزن و قد آنها را ثبت می کند، احتمالا می تواند نژاد «چی واوا» را از «گریت دین « با دقت کامل تشخیص دهد اما ممکنست در تشخیص یک «مالاموت آلاسکایی» و یک «دوبرمن» اشتباه کند برای اینکه نژادهای متفاوت ممکنست در محدوده یکسانی از سن، وزن و قد قرار بگیرند.
گرشنسون اضافه کرد: این دسته بندی، طبقه بندی پذیری نامیده می شود و من و دانشجویانم مطالعه آنرا از سال ۲۰۲۱ شروع کردیم. ما با استفاده از داده های بیشتر از نیم میلیون دانشجو که میان سالیان ۲۰۰۸ تا ۲۰۲۰ در «دانشگاه مستقل ملی مکزیک»(UNAM) تحصیل کرده بودند، می خواستیم یک مسئله به ظاهر ساده را حل نماییم. ما می خواستیم بدانیم آیا می توانیم از یک الگوریتم هوش مصنوعی برای پیشبینی اینکه کدام دانشجویان مدرک دانشگاهی خودرا بموقع -یعنی ظرف سه، چهار یا پنج سال از شروع تحصیل بسته به رشته ی تحصیلی- به پایان می رسانند، استفاده نمائیم.
وی ادامه داد: ما چندین الگوریتم محبوب را که برای طبقه بندی در هوش مصنوعی استفاده می شوند، آزمایش کردیم و الگوریتم خودمان را نیز توسعه دادیم. هیچ الگوریتمی کامل نبود. بهترین آنها -حتی الگوریتمی که ما به صورت ویژه برای این کار توسعه دادیم- به میزان دقت حدود ۸۰ درصد دست یافتند؛ به این معنا که حداقل از هر پنج دانش آموز یک نفر به اشتباه طبقه بندی شده بود. ما متوجه شدیم که خیلی از دانش آموزان از نظر نمره، سن، جنسیت، وضعیت اجتماعی-اقتصادی و سایر خاصیت ها یکسان هستند. تحت این شرایط، هیچ الگوریتمی قادر به ارایه پیشبینی های کامل نخواهد بود.
گرشنسون اظهار داشت: ممکنست فکر کنید که داده های بیشتر، پیشبینی پذیری را بهبود می بخشد اما این به طور معمول با بازدهی نزولی همراه می باشد. این بدان معناست که بعنوان مثال، برای هر یک درصد افزایش دقت ممکنست به ۱۰۰ برابر داده ها نیاز داشته باشید. بنابراین، ما هیچ گاه دانش آموز کافی را برای بهبود قابل توجه عملکرد مدل خود نخواهیم داشت.
خطاهایی که توسط فناوری های هوش مصنوعی ایجاد می شوند، اساساً طبقه بندی های نادرستی هستند که بوسیله ی یک الگوریتم محاسباتی انجام می گیرند. درک چگونگی تبدیل این موارد به تأثیر بالینی بر بیماران اغلب ناقص است؛ به این معنا که گزارش واقعی درباره ی ایمنی فناوری هوش مصنوعی ناقص است. علاوه بر این، خیلی از تغییرات غیر قابل پیشبینی در زندگی دانشجویان و خانواده هایشان -بیکاری، مرگ، بارداری- ممکنست بعد از سال اول دانشگاه رخ دهند که احتمالا بر اتمام بموقع تحصیلات تأثیر می گذارد. ازاین رو حتی با وجود تعداد نامحدودی از دانشجویان، پیشبینی های ما بازهم خطا خواهند داشت.
به نقل از وب سایت رسمی موسسه ملی سلامت آمریکا، تعداد رو به ازدیادی از فناوری های مبتی بر هوش مصنوعی درحال حرکت بسمت بخش بالینی در سرتاسر حوزه پزشکی هستند. معرفی چنین فناوری هایی، مزایای مختلفی را برای تخصص های تشخیصی بهمراه خواهد داشت که همچون آنها می توان به افزایش دقت و کارآیی تشخیص اشاره نمود. با این وجود، از آنجائیکه هیچ فناوری هوش مصنوعی مصون از خطا نیست، استفاده از آنها به صورت ناگزیر خطاهای جدیدی را به وجود خواهد آورد.
خطاهایی که توسط فناوری های هوش مصنوعی ایجاد می شوند، اساساً طبقه بندی های نادرستی هستند که بوسیله ی یک الگوریتم محاسباتی انجام می گیرند. درک چگونگی تبدیل این موارد به تأثیر بالینی بر بیماران اغلب ناقص است؛ به این معنا که گزارش واقعی درباره ی ایمنی فناوری هوش مصنوعی ناقص است.
بهتر است که خطاهای ناشی از فناوری های هوش مصنوعی از دیدگاه پاتولوژیک و بالینی ارزیابی و گزارش شوند، نحوه انجام شدن کار در مطالعات مربوط به خطاهای پاتولوژیست انسانی نشان داده شود و در صورت امکان، نمونه هایی از پاتولوژی و رادیولوژی ارایه شود.

محدودیت های پیش بینی

در مجموع تر، آن چه پیشبینی را محدود می کند، پیچیدگی است. اجزایی که یک سیستم پیچیده را می سازند، درهم تنیده هستند و این تعاملات بین آنهاست که تعیین می کند چه اتفاقی برای آنها رخ خواهد داد و چه طور رفتار خواهند کرد. بنابراین، مطالعه عناصر سیستم به شکل جداگانه احتمالا اطلاعات گمراه کننده ای را درباره ی آنها و همین طور درباره ی کل سیستم به دست می دهد.
بعنوان مثال، خودرویی را درنظر بگیرید که در یک شهر درحال حرکت است. با دانستن سرعت رانندگی آن می توان از نظر نظریه پیش بینی نمود که در یک زمان خاص به کجا خواهد رسید اما در ترافیک واقعی، سرعت آن به تعامل با سایر وسایل نقلیه در جاده بستگی دارد. از آنجائیکه جزئیات این تعامل در لحظه ظاهر می شوند و نمی توان از قبل آنها را دانست، پیشبینی دقیق آن چه برای خودرو رخ می دهد، تنها چند دقیقه بعد ممکن است.
آن چه پیشبینی را محدود می کند، پیچیدگی است. اجزایی که یک سیستم پیچیده را می سازند، درهم تنیده هستند و این تعاملات بین آنهاست که تعیین می کند چه اتفاقی برای آنها رخ خواهد داد و چه طور رفتار خواهند کرد. همین اصول درباره ی تجویز داروها نیز صدق می کند. شرایط و بیماری های مختلف می توانند علایم یکسانی داشته باشند و افراد دچار بیماری یکسان ممکنست علایم متفاوتی را نشان دهند. بعنوان مثال، تب می تواند ناشی از بیماری تنفسی یا گوارشی باشد و سرماخوردگی ممکنست موجب سرفه شود اما همیشه این طور نیست. این بدان معناست که مجموعه داده های مراقبت های بهداشتی همپوشانی های قابل توجهی دارند که مانع از آن می شود تا هوش مصنوعی بدون خطا باشد.
اساسا انسان ها هم اشتباه می کنند اما وقتی هوش مصنوعی بیماری یک بیمار را اشتباه تشخیص می دهد که مطمئناً این اتفاق خواهد افتاد، وضعیت در یک برزخ قانونی قرار می گیرد. معلوم نیست که در صورت لطمه دیدن بیمار، چه کسی یا چه چیزی مسئول خواهد بود. شرکتهای داروسازی؟ توسعه دهندگان نرم افزار؟ آژانس های بیمه؟ داروخانه ها؟
در خیلی از زمینه ها، نه انسان ها و نه ماشین ها بهترین گزینه برای یک کار مشخص نیستند. «هوش هیبریدی» یعنی تلفیقی از انسان ها و ماشین ها به طور معمول بهتر از هر کدام به تنهایی عمل می کنند. یک پزشک مطمئناً می تواند از هوش مصنوعی برای تصمیم گیری درباره ی داروهای احتمالی برای بیماران گوناگون، بسته به سابقه پزشکی، جزئیات فیزیولوژیکی و ساختار ژنتیکی آنها استفاده نماید. محققان اکنون درحال بررسی این رویکرد در پزشکی دقیق هستند.
عقل سلیم و اصل احتیاط می گوید که هنوز برای تجویز دارو توسط هوش مصنوعی بدون نظارت انسان خیلی زود است و این واقعیت که ممکنست خطاهایی در این فناوری رخ دهد، می تواند به این معنا باشد که وقتی سلامت انسان در خطر است، نظارت انسانی همیشه ضروری خواهد بود.
به اجمال، مدلی که برپایه مجموعه داده های به دست آمده از میلیون ها سگ آموزش دیده است و فقط سن، وزن و قد آنها را ثبت می کند، احتمالاً می تواند نژاد چی واوا را از گریت دین با دقت کامل تشخیص دهد اما ممکنست در تشخیص یک مالاموت آلاسکایی و یک دوبرمن اشتباه کند به جهت اینکه نژادهای متفاوت ممکنست در محدوده یکسانی از سن، وزن و قد قرار بگیرند. با دانستن سرعت رانندگی آن می توان از نظر نظریه پیش بینی کرد که در یک زمان خاص به کجا خواهد رسید اما در ترافیک واقعی، سرعت آن به تعامل با سایر وسایل نقلیه در جاده بستگی دارد. مشخص نیست که در صورت لطمه دیدن بیمار، چه کسی یا چه چیزی مسئول خواهد بود.

منبع:

1404/09/25
09:20:23
21
0.0 / 5
تگهای مطلب: آموزش , اقتصاد , خودرو , دیجیتال
این پست عصر لینک را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۱ بعلاوه ۱
asrelink.ir - حقوق مادی و معنوی سایت عصر لینك محفوظ است

عصر لینك

معرفی وبسایتهای خوب ، دروازه ورود به دنیای اطلاعات ، بهترین ها در یک نگاه