Professional Documents
Culture Documents
допринели чланци
ДОИ:10.1145/3381831
Овај тренд је вођен снажним фокусом
Стварање ефикасности у истраживању вештачке заједнице АИ на до ијање „најсавременијих“
резултата, као што је илустровано
интелигенције ће смањити његов угљични отисак и популарношћу та ли са лидерима,53,54
повећати његову инклузивност јер студија ду оког учења које о ично извештавају о тачности (или
другим сличним мерама), али изостављају
не и тре ало да захтева најду ље џепове.
свако помињање трошкова или ефикасности
(погледајте, на пример,
РОИ СЦХВАРТЗ, ЈЕССЕ ДОДГЕ, НОАХ
леадер оардс.алленаи.орг).ц Упркос јасним
А. СМИТХ И ОРЕН ЕТЗИОНИ предностима по ољшања тачности модела,
фокус на ову јединствену метрику занемарује
Зелени АИ
економске, еколошке и друштвене трошкове
достизање пријављених резултата.
Залажемо се за повећање истраживачке
активности у истраживању Зелене вештачке
интелигенције – АИ која је еколошки
прихватљивија и инклузивнија. Наглашавамо
да је истраживање црвеног вештачке
интелигенције дало вредан научни допринос
овој о ласти, али је ило превише
доминантно. Желимо да померимо равнотежу
ка опцији Зелене вештачке интелигенције
— да осигурамо да сваки студент који је
инспирисан додипломским студијама са
лаптопом има прилику да напише
висококвалитетне радове који и могли
ОД 2012. године, о ласт вештачке интелигенције (АИ) је ити прихваћени на врхунским
известила о изузетном напретку у широком спектру истраживачким конференцијама. Конкретно,
предлажемо да се ефикасност учини чешћим
могућности укључујући препознавање о јеката, играње критеријумом евалуације за АИ радове поред тачности и
игара, препознавање говора и машинско превођење.43
То у пракси значи да је тачност система на неком
Велики део овог напретка постигнут је све већим и енчмарку већа од тачности ило ког
рачунарски интензивнијим ду оким модели учења.а Слика претходно о јављеног система. ц
Неке листе лидера се фокусирају на ефикасност
1, репродукована од Амодеи ет ал.,2 приказује повећање (хттпс://давн.цс.станфорд.еду/ енцхмарк/).
уграђивања речи гледајући ЕЛМо34 праћен БЕРТ,8 ˽ Црвени АИ води до изненађујуће великог
угљенични отисак, и отежава академицима,
опенГПТ-2,35 КСЛНет,56 Мегатрон-ЛМ,42 Т5,36 и ГПТ-3.4 студентима и истраживачима да се укључе у
Важан рад47 процењује угљенични отисак неколико истраживање ду оког учења.
модела НЛП-а и тврдили да је овај тренд и еколошки ˽ Алтернатива је Греен АИ, која третира
ефикасност као примарни критеријум
неповољан и изузетно скуп, што подиже препреке за евалуације поред тачности. Да исмо
измерили ефикасност, предлажемо да
учешће у НЛП истраживању. Такав рад називамо се пријави рој операција са помичним
Црвени АИ. зарезом потре них за генерисање резултата. ИЛУСТРАЦИЈА
СХЕЕХАН
ЛИСА
Истраживање вештачке интелигенције може Слика 1 илуструје да се рачунски трошкови дуга историја истраживања одрживог и
ити рачунарски скупо на више начина, али високо уџетног истраживања експоненцијално енергетски ефикасног рачунарства (на пример,
сваки пружа могућности за ефикасна повећавају, темпом који далеко превазилази видети часопис Сустаина ле Цомпутинг:
по ољшања; на пример, радови могу приказати Муров закон.33 Црвени АИ је у порасту упркос Информатицс анд Системс).
учинак као функцију величине скупа за о уку, до ро познатим опадајућим повратима У овом чланку анализирамо праксе које
омогућавајући удућем раду да упореди учинак повећања трошкова (на пример, слика 3 ). померају истраживање ду оког учења у о ласт
чак и са малим уџетима за о уку. Извештавање црвене вештачке интелигенције. Затим
о рачунској цени модела за развој, о уку и Овај чланак идентификује кључне факторе разговарамо о нашим предлозима за зелену
покретање је кључна пракса зелене вештачке који доприносе црвеној вештачкој интелигенцији вештачку интелигенцију и разматрамо сродни
интелигенције (погледајте једначину 1). и заговара увођење једноставне метрике рад и правце за удућа истраживања.
су основне линије које и други истраживачи интелигенције уду зеленија, инклузивнија и вештачка интелигенција Црвена вештачка
1
ВГГ Овај одељак анализира факторе који
• ДеепСпеецх2 •
.1 • РесНетс доприносе црвеној вештачкој интелигенцији и
• Сек2Сек
показује како то доводи до смањења приноса
Петафлопс/
(тренинг)
дан
с-
• ГооглеНет •
.01
• АлекНет Визуелизација и разумевање конв мрежа током времена (види слику 3). Примећујемо да је
• Одустајање рад са црвеном вештачком интелигенцијом
.001
вредан, и у ствари, много тога доприноси ономе
Ефикасност Остало
( ) по ољшање ефикасности, (ц) о е, или (д)
16
друге. Као што је приказано на слици 2, на свим
14
конференцијама које смо разматрали, велика
12
већина радова циља на тачност (90% АЦЛ радова,
10
80% НеурИПС радова и 75% ЦВПР радова).
радова
Број
8
Штавише, за о е емпиријске АИ конференције
6
(АЦЛ
4
Слика 3. Опадајући принос о уке на више података: тачност детекције о јеката расте линеарно како се рој примера о уке
експоненцијално повећава.30
85
55
80
50
75
70 45
ИмагеНет
тачност
топ-1
%)
(у ИмагеНет
тачност
топ-1
%)
(у
65
40
60
35
55
50 30
107 108 109 107 108 109
Број слика за о уку у изворном задатку (Инстаграм) Број слика за о уку у изворном задатку (Инстаграм)
45
80
40 Тачност
%)
(у
70
35
ИмагеНет
тачност
топ-1
%)
(у
60
30
50
25
20 40
107 108 109 107 108 109
Број слика за о уку у изворном задатку (Инстаграм) Број слика за о уку у изворном задатку (Инстаграм)
и ЦВПР) само мали део (10% и 20% респективно) скуп података за о уку и процењен на скупу
Цена (Р) Е Д Х
се залаже за нови резултат ефикасности.е Ово тест података, а процес развоја тог модела
наглашава фокус АИ заједнице на мере често укључује више експеримената за
Једначина 1. Једначина црвеног
перформанси као што је тачност, на рачун подешавање његових хиперпараметара. АИ: Цена АИ (Р) резултата расте линеарно
мера ефикасности као што је као рзина или Стога разматрамо три димензије које са ценом о раде једног (Е) примера,
величина модела. У овом чланку тврдимо да о ухватају велики део рачунарских трошкова величином скупа података за о уку
(Д) и ројем експеримената (Х)иперпараметара .
овом другом тре а дати већу тежину. за до ијање таквог резултата: трошак
извршавања модела на једном (Е)примеру
( ило током о уке или у време закључивања); Једначина 1 је поједностављење (на
Да исте оље разумели различите величина скупа података за о уку (Д) који пример, различити хиперпараметри као
начине на које истраживање вештачке контролише рој извршавања модела током знаци могу довести до различитих трошкова
интелигенције може ити црвено, размотрите о уке и рој експеримената (Х)иперпараметара, о раде једног примера). Такође игнорише
резултат АИ који је о јављен у научном раду. који контролише колико пута се модел друге факторе као што је рој епоха о уке
Овај резултат типично карактерише модел о учен
о на а
учава током развоја модела. Укупни или повећање података. Ипак, он илуструје
трошкови производње (Р)резултата у три величине од којих је свака важан фактор
е Занимљиво је да су многи НеурИПС радови машинском учењу расте линеарно са сваком у укупним трошковима генерисања резултата.
укључивали стопе конвергенције или од ових величина. Овај трошак се може Затим разматрамо сваку количину посе но.
границе жаљења које описују перформансе
проценити на следећи начин:
као функцију примера или итерација,
циљајући на тај начин ефикасност (55%). То
указује на повећану свест о значају овог Скупа о рада једног примера.
концепта, ар у теоријским анализама. Наш фокус је на неуронским моделима, где је
уо ичајено је да сваки корак о уке може имати јаче перформансе, што је некомпримовани подаци, тако да је чак и
захтева закључак, тако да разматрамо вредан научни допринос. складиштење података скупо. Коначно,
о уку и трошкове закључивања заједно Међутим, ово имплицира да се финансијски као иу случају величине модела, ослањање
као пример „о раде“ (иако погледајте и еколошки трошкови све већих АИ на више података за по ољшање
дискусију у наставку). Неки радови су модела неће ускоро смањити, пошто перформанси је ноторно скупо з ог све
користили све веће моделе у смислу, на темпо раста модела далеко премашује мање поврата од додавања више
пример, параметара модела, и као резултирајуће повећање перформанси података.48 На пример, слика 3, преузета
резултат тога, у овим моделима извођење модела.18 Као резултат тога, иће од Махајан ет ал.,30 показује логаритамски
закључивања може захтевати много потре но све више ресурса да се однос између топ-1 тачности препознавања
рачунања, а још више о уке. На пример, наставите да по ољшавате АИ моделе о јеката и роја примера о уке.
Гоогле-ов БЕРТ-ларге8 садржи отприлике тако што ћете их једноставно повећати. Огроман рој експеримената.
350 милиона параметара. ОпенГПТ2-КСЛ На крају, напомињемо да у неким Неки пројекти су уложили велике количине
модел35 компаније Опен нАИ садржи 1,5 случајевима цена о раде једног примера прорачуна у подешавање хиперпараметара
милијарди параметара. АИ2, наша матична може ити другачија у време о уке и или претраживање неуронских
организација, о јавила је Гровер,57 који тестирања. На пример, неке методе архитектура, што је далеко ван домашаја
такође садржи 1,5 милијарди параметара. циљају на ефикасан закључак учењем већине истраживача. На пример,
НВИДИА је о јавила Мегатрон-ЛМ,42 мањег модела заснованог на великом истраживачи из Гоогле-а59 о учили су
који садржи преко 8 милијарди параметара. о ученом моделу. Ови модели често не преко 12.800 неуронских мрежа у
Гуглов Т5-11Б36 садржи 11 милијарди доводе до ефикасније о уке, јер се трошак претраживању неуронске архитектуре
параметара. Недавно је опенАИ издао Е смањује само у тренутку закључивања. како и по ољшали перформансе
опенГПТ-3,4 који садржи 175 милијарди Модели који се користе у производњи детекције о јеката и моделирања језика.
параметара. У заједници рачунарског о ично имају рачунске трошкове у којима Са фиксном архитектуром, истраживачи
вида примећује се сличан тренд (Слика 1). доминира закључивање, а не о ука, али из ДеепМинд31 су проценили 1.500
у истраживању је о ука типично много додељивања хиперпараметара како и
Овако велики модели имају високе чешћа, па се залажемо за проучавање показали да ЛСТМ језички модел17 може
трошкове о раде сваког примера, што метода за ефикасну о раду једног да постигне најсавременије резултате
доводи до великих трошкова о уке. БЕРТ примера и у о уци иу закључивању. з уњености. Упркос вредности овог
ларге је четири дана ио о учен на 64 резултата у показивању да перформансе
ТПУ чипа по процењеној цени од 7.000 О рада многих примера. Повећане ЛСТМ-а не падну након само неколико
долара. Гровер је две недеље ио о учен количине података о о уци такође су испитивања хиперпараметара, потпуно
на 256 ТПУ чипова, по процењеној цени допринеле напретку у врхунским истраживање потенцијала других
од 25.000 долара. КСЛНет је имао сличну перформансама у АИ. БЕРТ-ларге је имао конкурентских модела за фер поређење је изузетно ск
архитектуру као БЕРТ-ларге, али је врхунске перформансе у 2018. у многим Вредност масовног повећања роја
користио скупљу функцију циља (поред НЛП задацима након о уке на три експеримената није тако до ро проучена
ред величине више података) и ио је милијарде речи. КСЛНет је надмашио БЕРТ као прва два о којима је раније ило речи.
о учен на 512 ТПУ чипова 2,5 дана, што након о уке за 32 милијарде речи, У ствари, рој експеримената изведених
је коштало више од 60.000 долара.ф То је укључујући део Цоммон Цравл-а; опенГПТ-2- током изградње модела је често недовољно
немогуће да репродукују нај оље БЕРТ- КСЛ о учен за 40 милијарди речи; ФАИР- пријављен.
велике резултате или КСЛНет резултате ов РоБЕРТа28 је о учен на 160 ГБ текста, Ипак, докази за логаритамску миц
користећи један ГПУ,г и модели као што отприлике 40 милијарди речи, што је релацију постоје и овде.9,10
је опенГПТ2 су превелики да и се захтевало око 25.000 ГПУ сати за о уку. Дискусија. Све већи трошкови
користили у производњи.х Специјализовани Т5-11Б36 је о учен на 1 трилион токена, експеримената са вештачком
модели могу имати још екстремније 300 пута више од БЕРТ-ларге. У интелигенцијом нуде природну економску
трошкове, као што је АлпхаГо, нај оља компјутерској визији, истраживачи из мотивацију за развој ефикаснијих метода
верзија који је захтевао 1.920 ЦПУ-а и 280 Фаце оок30 су унапред о учили модел вештачке интелигенције. Може се десити
ГПУ-а за играње једне игре Го,44 са класификације слика на 3,5 милијарди да у одређеном тренутку цене уду
процењеним трошковима за репродукцију слика са Инстаграма, три реда величине превисоке, приморавајући чак и
овог експеримента од веће од постојећих означених скупова истраживаче са великим уџетом да
35.000.000 УСД.и,ј Када се испитују података слика као што је Опен Имагес.к развију ефикасније методе. Наша анализа
варијанте једног модела (на пример, БЕРТ- Употре а масивних података на слици 2 показује да је тренутно највећи
смалл и БЕРТ- велики) видимо да већи модели ствара препреке за многе истраживаче део труда и даље посвећен тачности, а не
да репродукују резултате ових модела и ефикасности. Истовремено, АИ технологија
ф хттпс://синцедревиев.цом/2019/06/27/тхе
да тренирају сопствене моделе на истој је већ веома скупа за о уку или извођење,
стаггеринг-цост-оф-траининг-сота-аимоделс/
г Погледајте хттпс://гитху .цом/гоогле-ресеарцх/ поставци (посе но пошто је о ука за што ограничава спосо ност многих
ерт и хттпс://гитху . цом/зихангдаи/ више епоха стандардна). На пример, истраживача да је проучавају, а практичара
клнет. х хттпс://товардсдатасциенце.цом/тоо- Цоммон Цравл из јула 2019. садржи 242ТБ да је усвоје. У ком инацији са еколошком
иг-то деплои-хов-гпт-2-ис- ценом вештачке интелигенције,47
реакингпродуцтион 63а 29ф0897ц
верујемо да и тре ало уложити више напора ка ефи
и хттпс://ввв.иузех.цом/дата/агз-цост.хтмл ј
Недавне верзије АлпхаГо-а су далеко ефикасније к хттпс://опенсоурце.гоогле.цом/пројецтс/
цент.46 опен-имагес-датасет л хттп://цоммонцравл.орг/2019/07/
Желимо да поновимо да је рад на црвеној тврдимо да и тре ало да уде пријављено када
вештачкој интелигенцији изузетно вредан и да у се о јаве истраживања АИ.
ствари, много тога доприноси ономе што знамо о Мере ефикасности. Да исмо измерили
померању граница вештачке интелигенције. У ефикасност, предлажемо да пријавите количину
Неки пројекти
ствари, постоји вредност у померању границе посла потре ног за постизање резултата. Конкретно,
величине модела, величине скупа података и количина посла потре ног за о уку модела и, ако
уџета за претрагу хиперпараметара. су уложили је примењиво, укупна количина посла потре на
Поред тога, Црвена вештачка интелигенција за све експерименте подешавања хиперпараметара.
може да пружи могућности за удући рад на велике количине Како се цена експеримента разлаже на цену о раде
промовисању ефикасности; на пример, евалуација
прорачуна у једног примера, величину скупа података и рој
модела на основу различитих количина података о експеримената (једначина 1), смањење количине
о уци пружиће прилику удућим истраживачима подешавање посла у сваком од ових корака ће резултирати
хиперпараметара
да надограђују рад ез потре е за довољно вештачком интелигенцијом која је више зелена.
великим уџетом за о уку на огромном скупу
података. Тренутно, упркос огромној количини или
ресурса уложених у недавне моделе вештачке
претраживање
интелигенције, таква улагања се и даље исплате у Ми подстичемо практичаре вештачке
смислу перформанси низводно (иако по све нижој неуронских интелигенције да користе ефикасан хардвер за
смањење трошкова енергије, али драматично
архитектура, што је
стопи). Проналажење тачке засићења (ако таква
постоји) је важно питање за удућност АИ. повећање трошкова рачунара примећено током
далеко ван домашаја већине
последњих истраживача.
година првенствено је резултат
моделирања и алгоритамских из ора; наш фокус
Штавише, трошкови Ред АИ могу се чак понекад је на томе како да ту ефикасност уградимо.
амортизовати, јер модул о учен за Црвену вештачку Када извештавамо о количини посла који је урадио
интелигенцију може поново да се користи у многим модел, желимо да измеримо количину која
истраживачким пројектима као уграђена омогућава фер поређење између различитих
компонента, која не захтева поновну о уку. модела. Као резултат, ова мера и идеално
Циљ овог чланка је двострук: прво, желимо да тре ало да уде ста илна у различитим
подигнемо свест о трошковима црвене вештачке ла ораторијама, у различито време и користећи
интелигенције и охра римо истраживаче који различит хардвер.
користе такве методе да предузму кораке како и Емисија угљеника. Емисија угљеника је
омогућили правичнија поређења, као што је привлачна јер је то количина коју желимо директно
извештавање о кривуљама о уке. Друго, желимо да минимизирамо. Без о зира на то, тешко је
да подстакнемо АИ заједницу да препозна вредност измерити тачну количину угљеника осло ођеног
рада истраживача који иду другачијим путем, о уком или извођењем модела, и сходно томе –
оптимизујући ефикасност, а не тачност. Затим ћемо генерисањем резултата вештачке интелигенције,
разговарати о конкретним мерама за повећање пошто ова количина у великој мери зависи од
зелене интелигенције. локалне инфраструктуре електричне енергије (мада
видети почетне напоре Хендерсона и др. .16 и
Лацосте ет ал.25). Као резултат тога, он није
ЗЕЛЕНИ АИ упоредив између истраживача на различитим
Термин Зелени АИ односи се на истраживање локацијама или чак на истој локацији у различито
трошкова рачунара (а самим тим и емисија угљеника, а истовремено је агностика времена и локације.
угљеника), Зелена АИ промовише приступе који Штавише, ГПУ-ови често извештавају о количини
имају повољне компромисе између перформанси/ електричне енергије коју свако од њихових језгара
ефикасности. Ако мере ефикасности уду широко троши у свакој временској тачки, што олакшава
прихваћене као важне метрике евалуације за процену укупне количине потрошене електричне
истраживање поред тачности, онда ће истраживачи енергије генерисањем АИ резултата. Без о зира на
имати могућност да се фокусирају на ефикасност то, ова мера зависи од хардвера и као резултат
својих модела са позитивним утицајем и на тога не дозвољава фер поређење између
инклузивност и на животну средину. Овде различитих модела развијених на различитим
разматрамо неколико мера ефикасности које и се машинама.
могле извести и оптимизовати, и заговарамо једну
одређену меру — ФПО — која Протекло у реалном времену. Укупно време
рада за генерисање АИ резултата је природна мера
ефикасности, као и све друге
Слика 4. Повећање ФПО доводи до смањења поврата за топ-1 тачност детекције о јеката. Плоче (одоздо нагоре): параметри модела (у милионима), ФПО (у милијардама),
топ-1 тачност на ИмагеНет-у. 4(а). Водећи модели за препознавање о јеката: АлекНет,24 РесНет,15 РесНект,55 ДПН107,6 СЕНет154.19 4( ): Поређење различитих
величина (мерено ројем слојева) РесНет модела.15
87
79.7 81.3
78.4 79.0
ацц.
70
56.4
55
26
20.8
18.4
15.5
ФБО
(Б) 13 11.6
0.7
0
130
115.1
90 83.5
параметри
(М)
61.1 60.2
50
АлекНет РесНет152 РесНект ДПН107 СЕНет154
2012 2015 2017 2017 2018
Модел/Година
82
78.4
77.4
ацц.
76.0
73.6
75
70.1
68
15
11.6
10 7.8
ФБО
(Б)
5 3.7 4.1
1.8
0
75
50
50
параметри
(М)
0
18 34 50 101 152
Број слојева
На модел не утиче само количина посла, већ и посао који модел о авља у великој мери зависи Доводе до ефикасних модела тре а да уде
други фактори као што је комуникација између од имплементације модела, пошто две различите верована од стране АИ заједнице.
различитих компоненти, што није о ухваћено имплементације истог модела могу резултирати ФПО трошкови постојећих модела. Да исмо
ФПО. Као резултат тога, ФПО није увек у веома различитим количинама посла о раде. демонстрирали важност извештавања о
корелацији са другим мерама као што су време З ог фокуса на доприносу моделирању, АИ количини посла, представљамо трошкове ФПО
рада21 и потрошња енергије.16 Друго, ФПО заједница традиционално игнорише квалитет за неколико постојећих модела.к Слика 4(а)
циља на рој операција које модел о авља, или ефикасност имплементације модела.п Ми приказује рој параметара и ФПО неколико
игноришући друге потенцијалне ограничавајуће тврдимо да је дошло време да се ова норма водећих модела за препознавање о јеката, као
факторе за истраживаче као што је меморија преокрене и да су изузетно до ре и њихове перформансе на ИмагеНет-у.
коју користи модела, што често може довести до имплементације које
додатних енергетских и новчаних трошкова.29
Коначно, износ од
к Ови ројеви представљају ФПО по закључивању,
п Сматрамо да је овај ексклузивни фокус на коначном односно рад потре ан за о раду једног примера.
предвиђању још један симптом црвеног АИ.
скуп података.7,р Уочљиво је неколико трендова. да препознају и вреднују доприносе који не климатске промене. На пример, машинско учење
Прво, као што је раније речено, модели временом унапређују стриктно стање технике, али имају друге је коришћено за смањење емисија из цементара1
постају све скупљи, али повећање ФПО не доводи предности као што је ефикасност. На крају, и праћење резултата очувања животиња,12 и
до сличних по ољшања перформанси. На пример, примећујемо да је тренд јавног о јављивања предвиђа се да ће ити корисно за управљање
повећање ФПО-а од скоро 35% између РесНет-а и унапред о учених модела зелен успех, и желели шумским пожарима.39 Несумњиво су то важне
РесНект-а (друга и трећа тачка на графикону) исмо да охра римо организације да наставе да апликације машинског учења; препознајемо да су
резултирало је по ољшањем тачности међу топ-1 о јављују своје моделе како и другима уштедели ортогонални садржају овог чланка.
од 0,5%. Слични о расци се примећују када се трошкове њихове преквалификације.
има више параметара од РесНет-а (друга тачка), Недавни рад је анализирао емисије угљеника из Закључак Визија
али драматично мањи ФПО, а такође и много нижу тренинга ду инских НЛП модела47 и закључио да зелене вештачке интелигенције покреће многе
тачност. експерименти који су повезани са рачунарством уз удљиве истраживачке правце који помажу да
могу имати велики еколошки и економски утицај. се превазиђу изазови црвене вештачке интелигенције.
Са савременим експериментима који користе тако Прогрес ће пронаћи ефикасније начине за
велике уџете, многим истраживачима (посе но алоцирање датог уџета за по ољшање
Слика 4( ) приказује исту анализу за један онима у академској заједници) недостају ресурси перформанси или за смањење трошкова рачунања
модел препознавања о јекта, РесНет,15 док се за рад у многим о ластима високог профила; уз минимално смањење перформанси. Такође,
пореде различите верзије модела са различитим повећана вредност која се ставља на рачунски чини се да и нас Зелена вештачка интелигенција
ројем слојева. Ово ствара контролисано ефикасне приступе омогућиће истраживачки могла да помери у когнитивно прихватљивијем
поређење између различитих модела, пошто су допринос више различитих група. Наглашавамо правцу пошто је мозак веома ефикасан.
идентични у архитектури, осим по величини (и да су закључци Сту елл ет ал.47 резултат
сходно томе, њиховој цени ФПО). Још једном, дугорочних трендова, и да нису изоловани у оквиру Важно је поновити да Зелену АИ видимо као
примећујемо исти тренд: велико повећање НЛП-а, али су истинити у читавом машинском вредну опцију, а не као искључиви мандат –
трошкова ФПО не значи велико повећање учењу. наравно, и Зелена АИ и Црвена АИ имају доприносе.
перформанси. Наши циљеви су да повећамо Црвени АИ са зеленим
о из ору модела и истакнемо ста илност потре но да се резултат репродукује или продужи.9 о уку модела на великим „сировим“ (нео ележјеним)
различитих приступа. подацима, а затим његово фино подешавање
Наш фокус је на по ољшању ефикасности у задатку од интереса кроз надгледано учење. Снажан
заједници машинског учења, али машинско учење резултат у овој о ласти често укључује постизање
такође може да се користи као алат за рад у сличних перформанси у односу на основну линију
о ластима као што су са мање примера о уке или мање корака у
Даље се залажемо за то да ефикасност постане градијенту. Најновији рад авио се подацима
званични допринос на великим конференцијама с хттпс://цлоуд.гоогле.цом/сустаина илити/ т финог подешавања,34 али је такође важна
хттпс://ввв.мицрософт.цом/ен-ус/енвирон
АИ саветујући рецензенте ефикасност пре о уке. У о а случаја, једна
мент/угљеник
једноставна техника за по ољшање у овој
у хттпс://авс.амазон.цом/а оут-авс/сустаин
р Бројеви преузети са хттпс://гитху .цом/
о ласти је да
соврасов/флопс-цоунтер.питорцх. спосо ност/ в хттпс://тиниурл.цом/и2ко 969
једноставно пријавите учинак са различитим и напори за рестаурацију. У З орник радова ИЦМЛ 43. Схохам, И. ет ал. Годишњи извештај индекса вештачке интелигенције за 2018.
извештавање о перформансама контекстуалних Е. МорпхНет: Брзо и једноставно учење структуре ду оких хттп:// цдн.аииндек.орг/ 2018/АИ%20Индек%202018%20Аннуал%20Репорт.пдф.
мрежа са ограниченим ресурсима. У З орник радова ЦВПР- 44. Силвер, Д. ет ал. Савладавање игре Го уз ду оке неуронске
модела уграђивања о учених на 10 милиона, а, 2018. мреже и претрагу ста ала. Природа 529, 7587 (2016) 484.
100 милиона, 1 милијарду и 10 милијарди 14. Халеви, А., Норвиг, П. и Переира, Ф. Неразумна ефикасност података.
ИЕЕЕ Интеллигент Системс 24 (2009), 8–12. 45. Силвер, Д. ет ал. Савладавање шаха и шогија самосталном игром са
токена и олакшало ржи развој нових општим алгоритмом учења уз поткрепљивање, 2017;
арКсив:1712.01815.
модела, јер се они прво могу упоредити на 15. Хе, К., Зханг, Кс., Рен, С. и Сун, Ј. Ду око резидуално учење за
препознавање слика. У З орник радова ЦВПР-а, 2016. 46. Силвер, Д. ет ал. Савладавање игре Го ез људског знања.
најмањим величинама података. Природа 550, 7676 (2017), 354.
16. Хендерсон, П., Ху, Ј., Ромофф, Ј., Брунскилл, Е., 47. Стру елл, Е., Ганесх, А. и МцЦаллум, А. Енергетска и политичка
Јурафски, Д. и Пинеау, Ј. Ка систематском извештавању о разматрања за ду око учење у НЛП-у. У Процеедингс оф
Истраживања овде нису вредна само да енергетским и угљеничним отисцима машинског учења, АЦЛ, 2019.
2020; арКсив:2002.05651. 48. Сун, Ц., Шривастава, А., Синг, С. и Гупта, А.
и о ука ила јефтинија, већ и зато што је Поновно разматрање неразумне ефикасности података у ери
17. Хоцхреитер, С. и Сцхмидху ер, Ј. Дугорочно
у о ластима као што су језици са малим меморија. Неурал Цомпутатион 9, 8 (1997), 1735–1780. ду оког учења. У З орнику радова ИЦЦВ, 2017.
18. Ховард, АГ ет ал. Мо илеНетс: Ефикасне конволуционе неуронске 49. Тсанг, И., Квок, ЈТ и Цхеунг, ПМ Цоре вецтор
ресурсима или историјски домени изузетно машине: Брза СВМ о ука на веома великим скуповима података.
мреже за мо илне апликације за вид, 2017; арКсив:1704.04861.
тешко генерисати више података, тако да да ЈМЛР 6 (апр. 2005), 363–392.
19. Ху, Ј., Схен, Л. и Сун, Г. Мреже стискања и ексцитације. У З орник 50. Васвани, А., Схазеер, Н., Пармар, Н., Усзкореит, Ј., Јонес, Л., Гомез, АН,
исмо напредовали, морамо ефикасније радова ЦВПР-а, 2018. Каисер, Л. и Полосукхин, И. Пажња је све што вам тре а. У З орник
користити оно што је доступан. 20. Хуанг, Ј. ет ал. Брзина/тачност компромиса за модерне конволуционе радова НеурИПС, 2017.
детекторе о јеката. У З орник радова ЦВПР-а, 2017. 51. Вениат, Т. и Деноиер, Л. Учење времена/меморије ефикасне
Коначно, укупан рој експеримената ду оке архитектуре са уџетираним супер мрежама. У
који се изводе да и се до ио коначан 21. Јеон, И. и Ким, Ј. Конструисање рзе мреже кроз деконструкцију З орник радова ЦВПР-а, 2018.
конволуције. У З орник радова НеурИПС, 2018. 52. Валсман, А., Биск, И., Га риел, С., Мисра, Д., Артзи, И., Цхои, И.
резултат често је недовољно пријављен и и Фок, Д. Рана фузија за циљно усмјерену ро отску визију.
недовољно дискутовано.9 Неколико случајева 22. Јоуппи, НП ет ал. Анализа перформанси јединице за о раду тензора УЗ орник радова ИРОС-а, 2019.
у центру података. У З орник радова ИСЦА 1, 1 (2017), Пу л. 53. Ванг, А. Пруксацхаткун, И., Нангиа, Н., Сингх,
које истраживачи имају о потпуном датум: јун 2020. А., Мицхаел, Ј., Хилл, Ф., Леви, О. и Бовман, СР
извештавању о претраживању 23. Камтхе, С. и Деисенротх, МП. Учење уз помоћ података СуперГЛУЕ: оље мерило за системе разумевања језика
УЗ орнику радова ЕЦЦВ, 2016. Ф. и Цхои, И. Од рана од неуронских лажних вести, 2019;
о уке за моделе који су очигледно лоши арКсив:1905.12616.
28. Лиу, И. ет ал. РоБЕРТа: Ро усно оптимизован БЕРТ приступ пре
може довести до великих уштеда.26 Признање. тренинга, 2019; арКсив:1907.11692.
58. Зханг, Кс., Зхоу, Кс., Лин, М. и Сун, Ј. СхуффлеНет: Изузетно ефикасна
конволуциона неуронска мрежа за мо илне уређаје. У З орник
29. Ма, Н., Зханг, Кс., Зхенг, ХТ и Сун, Ј. СхуффлеНет В2: Практичне
Ово радова ЦВПР-а, 2018.
смернице за ефикасан дизајн цнн архитектуре. У З орнику
истраживање је ило радова ЕЦЦВ, 2018.
59. Зопх, Б. и Ле, КВ Претрага неуронске архитектуре са учењем уз
помоћ. У Процеедингс оф ИЦЛР, 2017.
спроведено на Аллен институту за АИ. 30. Махајан, Д. ет ал. Истраживање граница сла о надгледане
претренинга, 2018; арКсив:1805.00932.
31. Мелис, Г., Диер, Ц. и Блунсом, П. Он тхе стате оф
Рој Шварц (роис@алленаи.орг) је виши предавач на Хе рејском
Референце уметност евалуације у неуронским језичким моделима. У
универзитету у Јерусалиму, Израел.
1. Ацхарииа, П., Росарио, СД, Флор, Ф., Јосхи, Р., Ли, Д., Линарес, Р, анд З орник радова ЕМНЛП, 2018.
Зханг, Х. Аутопилот цементара за смањење потрошње горива и 32. Молцханов, П., Тирее, С., Каррас, Т., Аила, Т. и Каутз, Ј. О резивање Џеси Доџ (додгејессе@гмаил.цом), Институт за језичке
емисија. У З орник радова ИЦМЛ радионице о климатским конволуционих неуронских мрежа за закључивање ефикасног технологије, Универзитет Карнеги Мелон, Питс ург,
променама, 2019. ресурса. У Процеедингс оф ИЦЛР, 2017. Пенсилванија, САД.
2. Амодеи, Д. и Хернандез, Д. АИ и рачунарство, 2018. 33. Мооре, ГЕ Нагуравање више компоненти
Блог пост. интегрисана кола, 1965. Ноах А. Смитх (ноах@алленаи.орг) је професор рачунарских
3. Бергстра, ЈС, Барденет, Р., Бенгио, И. и Кегл, Б. 34. Петерс, М., Неуманн, М., Иииер, М., Гарднер, М., Цларк, Ц., Лее, К. и наука и инжењеринга на Универзитету у Вашингтону и виши
Алгоритми за оптимизацију хиперпараметара. У З орник Зеттлемоиер, Л. Ду оке контекстуализоване репрезентације менаџер истраживања за АлленНЛП тим на Аллен Институту за
радова НеурИПС, 2011. речи. У З орнику радова НААЦЛ, 2018. АИ и, Сијетл, Вашингтон, САД.
4. Бровн, ТБ ет ал. Језички модели су ученици са малим ројем 35. Радфорд, А., Ву, Ј., Цхилд, Р., Луан, Д., Амодеи, Д. и Сутскевер, И.
погодака, 2020; арКсив:2005.14165. Језички модели су ученици који уче више задатака ез
5. Цанзиани, А., Пасзке, А. и Цулурциелло, Е. Ан надзора. ОпенАИ Блог, 2019. Орен Ециони (орене@алленаи.орг) је главни извршни директор
Аллен института за вештачку интелигенцију и професор
анализа модела ду оких неуронских мрежа за практичну 36. Раффел, Ц. ет ал. Истраживање граница трансфера
рачунарства на Универзитету Вашингтон, Сијетл, Вашингтон, САД.
примену. У Процеедингс оф ИСЦАС, 2017. учење помоћу о једињеног претварача текста у текст, 2019;
6. Цхен, И., Ли, Ј., Ксиао, Х., Јин, Кс., Иан, С. и Фенг, Ј. Дуал патх нетворкс. арКсив:1910.10683.
УЗ орник радова НеурИПС, 2017. 37. Растегари, М., Ордонез, В., Редмон, Ј. и Фархади, А. Кснорнет:
7. Денг, Ј., Донг, В., Соцхер, Р., Ли, Љ, Ли, К. и Феи Феи, Л. ИмагеНет: Имагенет класификација коришћењем инарних
Хијерархијска аза података великих размера. У З орнику конволуционих неуронских мрежа. У З орнику радова ЕЦЦВ, Ауторска права поседују аутори/власници.
радова ЦВПР-а, 2009. 2016. Ово дело је лиценцирано под лиценцом Цреативе
8. Девлин, Ј., Цханг, МВ, Лее, К., и Тоутанова, К. БЕРТ: Претренинг ду оких 38. Редмон, Ј., Диввала, С., Гирсхицк, Р. и Фархади, А. Гледате само Цоммонс Аттри утион Интернатионал 4.0.
двосмерних трансформатора за разумевање језика. У једном: о једињена детекција о јеката у реалном времену. У
З орнику радова НААЦЛ-а, 2019. З орник радова ЦВПР-а, 2016.
9. Додге, Ј., Гуруранган, С., Цард, Д., Сцхвартз, Р. и Смитх, НА Покажите 39. Ролницк, Д. ет ал. Бор а против климатских промена помоћу
свој рад: По ољшано извештавање о експерименталним машинског учења, 2019; арКсив:1905.12616.
резултатима. У З орник радова ЕМНЛП, 2019. 40. Сандлер, М., Хауард, А., Жу, М., Жмогинов, А. и
10. Додге, Ј., Илхарцо, Г., Сцхвартз, Р., Фархади, А., Цхен, ЛЦ Мо илеНетВ2: О рнути остаци и линеарна уска грла. У
Хајисхирзи, Х. и Смитх, НА Фино подешавање унапред о учених З орник радова ЦВПР-а, 2018.
језичких модела: иницијализације тежине, редослед података и 41. Сцхвартз, Р., Тхомсон, С. и Смитх, НА СоПа: Премошћавање
рано заустављање, 2020; арКсив:2002.06305. ЦНН-а, РНН-а и пондерисаних машина коначног стања. У
11. Додге, Ј., Јамиесон, К. и Смитх, НА Опен лооп Процеедингс оф АЦЛ, 2018. Погледајте како аутори дискутују
оптимизација хиперпараметара и процеси детерминантне тачке. 42. Схоеи и, М., Патвари, М., Пури, Р., ЛеГреслеи, П., Цаспер, Ј., Цатанзаро, о овом делу у ексклузивном
У Процеедингс оф АутоМЛ, 2017. Б. Мегатрон-ЛМ: Траининг мулти-милион параметер лангуаге видео снимку Цоммуницатионс .
12. Духарт, Ц., Ду лон, Г., Маитон, Б., Давенпорт, Г. и Парадисо, ЈА моделс усинг ГПУ модел параллелисм, 2019; хттпс://цацм.ацм.орг/видеос/ греен-
Ду око учење за очување дивљих животиња арКсив:1909.08053. аи