«صبر کن، نه اونجوری»: دسترسی آزاد و رایگان در عصر هوش مصنوعی مولد
صبر کن، نه اونجوری»: دسترسی آزاد و رایگان در عصر هوش مصنوعی مولد
آرمان های جنبش دسترسی آزاد، الهام بخش افراد بی شماری بوده است تا کار خود را به اشتراک بگذارند: جهانی که در آن «هر انسانی می تواند آزادانه در مجموع دانش سهیم باشد» (ویکی مدیا)، و جایی که «آموزش، فرهنگ و علم به طور عادلانه به عنوان وسیله ای برای منفعت بشریت به اشتراک گذاشته می شوند» (Creative Commons a ).
اما سناریوهایی وجود دارد که می تواند برای کسانی که در پروژه های آزاد و متن باز مانند پروژه های ویکی مدیا مشارکت می کنند، یا کسانی که به طور مستقل آثار خود را تحت مجوزهای آزاد منتشر می کنند، تردید ایجاد کند. من این ها را لحظات «صبر کن، نه، نه این طوری» می نامم.
وقتی یک ویکی پدیانویس پرشور متوجه می شود که مقاله ی با دقت تحقیق شده اش در قالب یک کتاب الکترونیکی بسته بندی شده و برای سود شخص دیگری در آمازون فروخته شده است؟ صبر کنید، نه، نه اینطور .
وقتی یک توسعه دهنده ی یک پروژه ی نرم افزاری متن باز می بیند که یک شرکت فناوری چند میلیارد دلاری بدون هیچ کمکی به کار او متکی است ، نه، نه اینطور نیست؟
وقتی یک عکاس طبیعت متوجه می شود که عکس حیات وحش با مجوز آزادش در یک مجموعه NFT که روی یک بلاکچین مخرب محیط زیست ضرب شده، استفاده شده است؟ صبر کنید، نه، نه اینطور .
و شاید اخیرا، وقتی شخصی که کار خود را تحت مجوز رایگان منتشر می کند، متوجه می شود که کار او توسط غول های فناوری برای آموزش مدل های زبانی بزرگ استخراجی و استثماری استفاده شده است؟ صبر کنید، نه، نه اینطور نیست .
این واکنش ها قابل درک هستند. وقتی ما آزادانه مجوز کار خود را صادر می کنیم، این کار را در خدمت آن اهداف انجام می دهیم: دسترسی آزاد و رایگان به دانش و آموزش. اما وقتی شرکت های تریلیون دلاری از این آزادی سوءاستفاده می کنند در حالی که هیچ چیزی به ما نمی دهند، یا وقتی کار ما امکان استفاده های مضر یا استثمارگرانه را فراهم می کند، ممکن است احساس شود که ما ساده لوح بوده ایم. واکنش طبیعی این است که سعی کنیم کنترل را دوباره به دست آوریم.
این جایی است که بسیاری از سازندگان امروزه خود را می بینند، به خصوص در پاسخ به آموزش هوش مصنوعی. اما راه حل هایی که آنها به دنبال آن هستند - مجوزهای محدودکننده تر، دیوارهای پرداخت یا اصلا منتشر نکردن - خطر نابودی همان چیزهای رایجی را که در ابتدا قصد ساختن آنها را داشتند، به همراه دارد.
«نیاز به استناد» یک نشریه مستقل است که کاملا توسط خوانندگانی مثل شما پشتیبانی می شود. ثبت نام برای اشتراک رایگان یا اشتراک «هر چقدر می خواهی پول بده» را در نظر بگیرید - این واقعا به من کمک می کند تا به انجام این کار ادامه دهم.
اولین انگیزه اغلب تلاش برای سخت تر کردن مجوزها است، شاید با تغییر به چیزی شبیه مجوز غیرتجاری (و بنابراین غیرآزاد) کریتیو کامنز. وقتی NFTها در اوایل دهه 2020 از محبوبیت برخوردار شدند، برخی از هنرمندان به کریتیو کامنز چشم دوختند به این امید که شاید NFTها را اساسا با مجوزهای رایگان خود ناسازگار اعلام کنند (که این کار را نکردند 1 ). همین اتفاق دوباره با انفجار شرکت های هوش مصنوعی مولد که مدل های آموزشی را بر اساس آثار دارای مجوز CC آموزش می دهند، رخ داد و برخی از دیدن این موضع که این گروه نه تنها مجوزهای CC آموزش هوش مصنوعی را به صورت عمده ممنوع نمی کند، بلکه آموزش هوش مصنوعی باید به طور پیش فرض از دیدگاه حق چاپ غیرنقض کننده در نظر گرفته شود، ناامید شدند. 2
اما مشکل تلاش مداوم برای محدود کردن تعاریف «آزاد» این است که نوشتن مجوزی که هر احتمالی را که باعث می شود فرد بگوید «صبر کن، نه، این طور نه» کاملا ممنوع کند، در عین حال مزایای دسترسی آزاد و باز را حفظ کند، غیرممکن است. اگر این واقعا چیزی است که یک خالق می خواهد، پس احتمالا مدل سنتی و تمام حقوق محفوظ برای او بهتر است که در آن هر کاربر مجدد احتمالی باید به صورت جداگانه با او در مورد شرایط مذاکره کند؛ اما این هدف آزادی را تضعیف می کند و استفاده مجدد مجاز را فقط به کسانی محدود می کند که زمان، ابزار و قدرت چانه زنی برای مذاکره موردی را دارند .
به خصوص در مورد هوش مصنوعی، هیچ نشانه ای وجود ندارد که سخت تر کردن مجوزها حتی موثر باشد . ما از قبل می دانیم که شرکت های بزرگ هوش مصنوعی در تلاش های مداوم خود برای دریافت هرچه بیشتر داده ها، مدل های خود را در مورد آثار دارای تمام حقوق محفوظ آموزش داده اند. چنین آموزشی ممکن است در دادگاه های ایالات متحده تحت قانون استفاده منصفانه مجاز باشد، و احتمالا بهتر است که این کار را انجام دهد. ۳ ۴ ۵ ۶
همچنین خالقان آثار هنری که نگران هوش مصنوعی هستند، تمایلی به محدود کردن چشمگیر دسترسی افراد به آثارشان نشان داده اند. برخی از هنرمندان به این نتیجه رسیده اند که نگهداری یک گالری آنلاین از آثارشان، وقتی که دسترسی به آنها را برای آموزش هوش مصنوعی آسان می کند، به هیچ وجه ارزشمند نیست. بسیاری از آنها دروازه های محدودکننده محتوا - دیوارهای پرداخت، دیوارهای ثبت نام، دیوارهای «آیا شما انسان هستید» و موارد مشابه - را برای جلوگیری از دسترسی افراد سودجو پیاده سازی کرده اند. این امر نیز دسترسی به منابع مشترک را مسدود می کند و دسترسی به مطالبی را که در ابتدا قرار بود کالاهای مشترک باشند، برای «تک تک انسان ها» که در بیانیه های دسترسی آزاد توصیف شده اند، چالش برانگیزتر یا پرهزینه تر می کند.
اغلب با تلاش برای دور کردن کسانی که بازیگران بد تلقی می شوند، مردم همان افرادی را که قصد دسترسی به آنها را داشتند، دور می کنند. افرادی که آثار خود را پشت دیوارهای پرداخت قرار می دهند، احتمالا قصد نداشتند آثاری خلق کنند که فقط ثروتمندان بتوانند به آنها دسترسی داشته باشند. افرادی که دیوارهای ثبت نام را پیاده سازی می کنند، احتمالا قصد نداشتند آثارشان فقط در دسترس کسانی باشد که مایلند پس از ارائه اطلاعات شخصی خود، خطر هرزنامه های ایمیلی مداوم را تحمل کنند. افرادی که سعی می کنند با استفاده از CAPTCHAها از ربات ها جلوگیری کنند و از آنها می پرسند "آیا شما انسان هستید؟"، احتمالا منظورشان این نبود که مطالب خود را فقط به افراد توانمند ۷ که مایل به تحمل معماهای طولانی تر و آزاردهنده تر هستند، محدود کنند. ۸ و افرادی که از هر یک از این استراتژی ها استفاده می کنند، احتمالا نمی خواستند مردم حتی برای یافتن آثارشان در وهله اول پس از اینکه دیوارهای پرداخت و دیوارهای تنظیمی و مکانیسم های ضد ربات، نمایه سازهای موتور جستجو یا پیش نمایش های رسانه های اجتماعی را خنثی کردند، دچار مشکل شوند.
و رک و پوست کنده بگویم، اگر می خواهیم جهانی بسازیم که در آن هر انسانی بتواند آزادانه در مجموع دانش سهیم باشد، و جایی که آموزش، فرهنگ و علم به طور عادلانه به عنوان وسیله ای برای منفعت بشریت به اشتراک گذاشته شوند، باید از تلاش برای ساختن این دیوارها دست برداریم. اگر کودکی به لطف کار یک ویراستار در یک مقاله ویکی پدیا یاد بگیرد که دی اکسید کربن گرما را در جو زمین به دام می اندازد یا چگونه می توان بهره مرکب را محاسبه کرد، آیا واقعا مهم است که آن را از طریق ChatGPT یا با پرسیدن از سیری یا از باز کردن یک مرورگر و بازدید از Wikipedia.org آموخته باشد؟
به جای نگرانی در مورد «صبر کن، نه به این شکل»، فکر می کنم باید گفتگو را به «صبر کن، نه فقط به این شکل» یا «صبر کن، نه به روش هایی که خود دسترسی آزاد را تهدید می کند» تغییر دهیم. تهدید واقعی آموزش مدل های هوش مصنوعی در مورد مطالب دسترسی آزاد این نیست که افراد بیشتری به لطف روش های جدید به دانش دسترسی پیدا کنند. تهدید واقعی این است که این مدل ها ممکن است ویکی پدیا و سایر مخازن دانش آزاد را خفه کنند و از نیروی کار، پول و مراقبتی که برای حمایت از آنها صرف می شود، سود ببرند و در عین حال آنها را نیز از بین ببرند. تهدید اصلی این است که شرکت های تریلیون دلاری پس از تصاحب کار پر زحمت کسانی که دانش را برای همه رایگان کردند و در این فرآیند آن پروژه ها را از بین بردند، به تنها داوران دسترسی به دانش تبدیل می شوند.
شرکت های هوش مصنوعی غیرمسئول در حال حاضر بارهای عظیمی را بر زیرساخت های ویکی مدیا تحمیل می کنند که هم از نظر پهنای باند صرف، و هم به این دلیل که به مهندسان متعهدی برای نگهداری و بهبود سیستم ها برای مدیریت ترافیک عظیم خودکار نیاز دارد، پرهزینه است. و شرکت های هوش مصنوعی که پاسخ های خود را به ویکی پدیا نسبت نمی دهند یا هیچ اشاره ای به آن ارائه نمی دهند، کاربران را از دانستن منشا آن مطالب باز می دارند و آن کاربران را به بازدید از ویکی پدیا تشویق نمی کنند، جایی که ممکن است بعدا به عنوان ویرایشگر ثبت نام کنند یا پس از مشاهده درخواست پشتیبانی، کمک مالی کنند. (اتفاقا این موضوع در مورد اکثر شرکت های هوش مصنوعی صدق می کند. بسیاری از «پیشگامان» هوش مصنوعی کاملا راضی به قول دادن هستند که هوش مصنوعی فوق العاده در راه است، اما ادعا می کنند که نسبت دادن به نوعی یک مشکل دائمی غیرقابل حل است.)
و اگرچه من در اینجا به عنوان مثال به ویکی پدیا تکیه می کنم، همین امر در مورد هر وب سایتی که حاوی مطالب دارای مجوز آزاد است، صدق می کند، جایی که کپی برداری به نفع شرکت های هوش مصنوعی است و اغلب هزینه بسیار زیادی برای میزبانان محتوا دارد. این فقط مربوط به فشار بر یک پروژه خاص نیست، بلکه مربوط به برچیدن سیستماتیک زیرساختی است که دانش آزاد را ممکن می سازد.
هر کسی در یک شرکت هوش مصنوعی که لحظه ای تامل کند، باید بتواند تشخیص دهد که رابطه ای خون آشام گونه با منابع مشترک دارد. در حالی که آنها برای امرار معاش خود به این مخازن متکی هستند، روابط خصمانه و بی احترامی آنها با سازندگان، انگیزه های هر کسی را برای در دسترس عموم قرار دادن کار خود در آینده (با مجوز آزاد یا غیره) کاهش می دهد. آنها منابع را از متولیان این مخازن مشترک، اغلب بدون هیچ گونه جبرانی، تخلیه می کنند. آنها میزان دیده شدن منابع اصلی را کاهش می دهند و مردم را از اینکه می توانند یا باید در حفظ چنین پروژه های ارزشمندی مشارکت کنند، بی خبر می گذارند. شرکت های هوش مصنوعی باید یک اکوسیستم دسترسی آزاد پررونق بخواهند و اطمینان حاصل کنند که مدل هایی که در سال ۲۰۲۰ در ویکی پدیا آموزش دیده اند، می توانند به طور مداوم گسترش یافته و به روزرسانی شوند. حتی اگر شرکت های هوش مصنوعی به منافع مشترک اهمیتی ندهند، درک این موضوع که با خشکاندن این پروژه ها، در واقع منبع غذایی خود را از بین می برند، نباید برایشان دشوار باشد.
و با این حال، به نظر می رسد بسیاری از شرکت های هوش مصنوعی توجه بسیار کمی به این موضوع دارند و ظاهرا فقط به ماه های پیش روی خود نگاه می کنند تا اینکه در مقیاس های زمانی چند ساله عمل کنند. (اگرچه شاید هر کسی که فعالیت های شرکت های هوش مصنوعی را به طور کلی مشاهده کرده باشد، از دیدن این که آنها طوری رفتار نمی کنند که گویی معتقدند کسب وکارشان در عرض چند سال پایدار خواهد بود، تعجب نکند.)
بسیار عاقلانه خواهد بود که این شرکت ها فورا اولویت بندی سلامت عمومی را آغاز کنند تا در نهایت مرغ تخم طلایی خود را خفه نکنند. همچنین بسیار عاقلانه خواهد بود که بقیه ما به شرکت های هوش مصنوعی تکیه نکنیم که ناگهان و به طرز معجزه آسایی به خود بیایند یا به طور دسته جمعی وجدان بیدار پیدا کنند.
در عوض، ما باید اطمینان حاصل کنیم که سازوکارهایی وجود دارد که شرکت های هوش مصنوعی را مجبور می کند با این مخازن طبق شرایط سازندگانشان تعامل داشته باشند.
روش هایی برای انجام این کار وجود دارد: مدل هایی مانند Wikimedia Enterprise که از شرکت های هوش مصنوعی برای استفاده از داده های میزبانی شده توسط Wikimedia استقبال می کند، اما آنها را ملزم به استفاده از لوله های پولی و پرحجم می کند تا اطمینان حاصل شود که سیستم را برای دیگران مسدود نمی کنند و آنها را از نظر مالی از بار اضافی که بر زیرساخت پروژه وارد می کنند، حمایت کنند. Creative Commons در حال آزمایش ایده « سیگنال های ترجیحی » است - مدلی غیرمبتنی بر حق چاپ که از طریق آن می توان به شرکت های هوش مصنوعی و سایر نهادها شرایطی را که ممکن است از کارهای دارای مجوز CC استفاده مجدد کنند یا نکنند، ابلاغ کرد. c به افراد روزمره نیاز است ابزارهایی - چه قانونی و چه فنی - داده شود تا ترجیحات خود را در مورد نحوه استفاده از آثارشان اعمال کنند.
برخی ممکن است استدلال کنند که اگر شرکت های هوش مصنوعی در حال حاضر حق چاپ و آموزش در مورد آثار دارای حق چاپ را نادیده می گیرند، به سادگی این مکانیسم ها را نیز نادیده خواهند گرفت. اما یک تفاوت اساسی وجود دارد: به جای تکیه بر ادعاهای مبهم حق چاپ یا تهدید به گسترش حق چاپ به روش هایی که در نهایت به سازندگان آسیب می رساند، می توانیم چارچوب های قانونی روشنی در مورد رضایت و جبران خسارت ایجاد کنیم که بر اساس قانون کار و قرارداد موجود بنا شده باشد. همانطور که اتحادیه ها در گذشته با موفقیت در مورد شرایط استفاده، تعامل اخلاقی و جبران خسارت منصفانه مذاکره کرده اند، چانه زنی جمعی می تواند به ایجاد توافق نامه های قابل اجرا بین شرکت های هوش مصنوعی، کسانی که آزادانه آثار آنها را مجوز می دهند و جوامعی که مخازن دانش باز را حفظ می کنند، کمک کند. این توافق نامه ها نه تنها جبران مالی برای هزینه های زیرساخت، بلکه الزامات مربوط به انتساب، استفاده اخلاقی و سرمایه گذاری مجدد در منابع مشترک را نیز پوشش می دهد.
آینده ی دسترسی آزاد و رایگان به این معنی نیست که بگوییم «صبر کن، نه به این شکل» - بلکه به این معنی است که بگوییم «بله، به این شکل، اما تحت شرایط عادلانه». با جبران منصفانه ی هزینه های زیرساخت. با انتساب و راه هایی که افراد جدید می توانند منابع مشترک زیربنایی را کشف و به آنها کمک کنند. با احترام عمیق به جوامعی که منابع مشترک را می سازند - و ابزارهایی که از آنها ساخته می شوند -. تنها در این صورت می توانیم واقعا جهانی بسازیم که در آن هر انسانی بتواند آزادانه در مجموع دانش سهیم باشد.