Deepfake технологиите се развиват бързо, представлявайки безпрецедентни предизвикателства за общественото доверие и информационната сигурност. Тъй като способността за предотвратяване на разпространението на deepfake зависи от цялостно разбиране на тези технологии, тази статия ще проучи как да се предпазим от deepfake с изкуствен интелект.
Двигателят на Deepfake: Технически Анализ
В основата на deepfake лежат генеративните модели, форма на изкуствен интелект, способна да се учи от огромни масиви от данни и да генерира реалистични изображения, видеоклипове и аудио. През последните години генеративните състезателни мрежи (GAN) еволюираха в дифузионни модели, които са още по-мощни. Следователно е необходимо да се извърши технически анализ на тези генеративни двигатели, за да се създаде стабилна рамка за превенция.
Състезателна игра: Генеративни състезателни мрежи (GAN)
GAN се състои от две невронни мрежи: генератор и дискриминатор. Задачата на генератора е да създава синтетични данни, които имитират данни от реалния свят. Той започва със случаен вход, често наричан латентен вектор, и се опитва да го преобразува в кохерентен изход. Дискриминаторът, от друга страна, действа като класификатор, който оценява данните, за да определи дали са реални (от реален набор от данни за обучение) или фалшиви (създадени от генератора).
Процесът на обучение включва постоянен цикъл на обратна връзка между двете мрежи, подобен на игра с нулев сбор. Генераторът създава фалшиво изображение и го подава на дискриминатора, който също получава истински изображения от набора за обучение. След това дискриминаторът предсказва автентичността на всяко изображение. Ако дискриминаторът правилно идентифицира изхода на генератора като фалшив, той предоставя обратна информация. Генераторът използва тази обратна връзка чрез обратно разпространение, за да коригира вътрешните си параметри, така че да генерира по-убедителни изображения при следващата итерация. В същото време дискриминаторът коригира собствените си параметри, за да открива по-добре фалшификатите. Тази състезателна надпревара продължава, докато системата достигне точка на равновесие, понякога наричана равновесие на Наш, в която изходите на генератора са толкова реалистични, че дискриминаторът вече не може надеждно да ги разграничи от реалните данни и отгатва приблизително с 50% точност.
GAN доказаха способността си да генерират ефективно синтетични медии и положиха основите на много мощни deepfake модели. Архитектури като Deep Convolutional GAN (DCGAN) въведоха основни подобрения чрез замяна на слоевете на обединяване и използване на пакетна нормализация, подобрявайки стабилността. StyleGAN на NVIDIA и неговите наследници, StyleGAN2 и StyleGAN3, постигнаха безпрецедентен фотореализъм в генерирането на лица, като отстраниха артефактите на характеристиките и подобриха архитектурите на моделите. Други варианти като CycleGAN активираха задачи за прехвърляне на стил и в резултат на това широко се използват в приложения като Face App, за да променят външния вид на хората.
Въпреки силата си, GAN са известни с това, че е трудно да се обучават. Деликатният баланс между генератора и дискриминатора може лесно да бъде нарушен, което води до нестабилност на обучението, бавна конвергенция или критичен режим на повреда, наречен “срив на режима”. Сривът на режима възниква, когато генераторът открие слабост в дискриминатора и я използва, като произвежда само ограничен набор от изходи, за които знае, че може да заблуди дискриминатора, като по този начин не успее да улови истинското разнообразие на данните за обучение. Тези присъщи предизвикателства, заедно с фините артефакти, които често произвеждат, се превърнаха в основни цели за ранните системи за откриване на deepfake.
Обръщане на хаоса: Дифузионни модели
Последните разработки в генеративния изкуствен интелект решително преминаха към нов клас модели: дифузионни модели. Вдъхновени от концепциите на неравновесната термодинамика, дифузионните модели работят по принцип, който коренно се различава от състезателната надпревара на GAN. Това са вероятностни генеративни модели, които генерират изключително високо качество и разнообразни данни, като се научават да обръщат процес на постепенно влошаване.
Механиката на дифузионните модели е двуфазен процес:
Процес на директна дифузия: Този етап систематично и постепенно добавя малки количества гаусов шум към изображение за определен период от време (напр. T стъпки). Това е процес на верига на Марков, където всяка стъпка е условна спрямо предишната, постепенно намалявайки качеството на изображението, докато на крайната стъпка по време T то стане неразличимо от чисто неструктуриран шум.
Процес на обратна деноизация: Сърцевината на модела е невронна мрежа (често архитектура U-Net), обучена да обръща този процес. Той се научава да предсказва шума, добавен на всяка стъпка от времето в процеса на директна дифузия, и да го изважда. След обучение моделът може да генерира нови висококачествени изображения, автоматично чрез стъпките на третиране, като започне от случайна извадка на шум и многократно прилага тази усвоена функция “деноизация”, превръщайки хаоса в кохерентни извадки от оригиналното разпределение на данните.
Този процес на итеративно усъвършенстване позволява на дифузионните модели да постигнат нива на фотореализъм и разнообразие, които надминават дори най-добрите GAN. Те също така са много по-стабилни за обучение от GAN, като избягват проблеми като срив на режима и генерират по-надеждни и разнообразни резултати. Това техническо предимство прави дифузионните модели основата на най-забележителните и мощни инструменти за генериране на изкуствен интелект днес, включително моделите за преобразуване на текст в изображение като DALL-E 2 на OpenAI, Imagen на Google и Stable Diffusion на Stability AI, както и моделите за преобразуване на текст във видео като Sora на OpenAI. Широката достъпност и изключително качество на продукцията на тези модели драстично ескалират deepfake заплахата.
Методи на работа
Независимо дали става въпрос за GAN или дифузионни модели, основните генеративни двигатели се прилагат чрез множество специфични техники за създаване на deepfake видеоклипове. Тези методи обработват различни аспекти на целевото видео, за да постигнат желаните ефекти на измама.
Повторно изпълнение: Тази техника прехвърля израженията на лицето, движенията на главата и движенията, свързани с речта, на източник към целевия обект във видео. Този процес обикновено съдържа три основни стъпки: първо, проследяване на лицевите характеристики в изходните и целевите видеоклипове; второ, подравняване на тези характеристики с общ 3D модел на лице с помощта на показатели за последователност; и трето, прехвърляне на изражението от източника към целта, последвано от последващи усъвършенствания за подобряване на реализма и последователността.
Синхронизация на устните: Deepfake техниките за синхронизация на устните са специализирани в обработката на реч, използвайки главно аудио вход за генериране на реалистични движения на устата. Аудиото се преобразува в динамични форми и текстури на устата, които внимателно се съпоставят и смесват с целевото видео, за да се създаде илюзията, че целевият човек казва аудиото, въведено като вход.
Съставяне на базата на текст: Този изключително усъвършенстван метод модифицира видеоклиповете според текстов скрипт. Той работи чрез анализиране на текста в съставните му фонеми (звукови единици) и виземи (визуални представяния на речевите звуци). След това те се свързват със съответните последователности в изходния видеоклип и се използват параметрите на 3D модел на главата, за да се генерират и изгладят движенията на устните в съответствие с новия текст, който дава възможност за редактиране на думите в зависимост от това какво изглежда, че казва човек.
Технологичната еволюция от GAN към дифузионни модели е нещо повече от прогресивно подобрение; това е промяна в парадигмата, която фундаментално променя пейзажа на deepfake стратегиите за превенция. GAN, въпреки мощността си, имат известни слабости в архитектурата, като нестабилност на обучението и срив на режима, което често води до предвидими и откриваеми артефакти в честотната област на изображението. Следователно цяло поколение инструменти за откриване е създадено специално за идентифициране на тези специфични за GAN пръстови отпечатъци. Въпреки това, дифузионните модели са по-стабилни за обучение и произвеждат по-разнообразни и реалистични изходи, които статистически се приближават повече до реалните изображения, като по този начин не притежават много от очевидните недостатъци на своите предшественици.
Следователно голяма част от съществуващата инфраструктура за откриване на deepfake бързо остарява. Изследванията показват “значително влошаване на производителността”, когато детектори, обучени на GAN генерирани изображения, се прилагат към съдържание от дифузионни модели. Трябва да се отбележи, че детекторите, обучени на дифузионни модели на изображения, могат успешно да идентифицират GAN генерирано съдържание, но не и обратното, което предполага, че дифузионните модели представляват по-сложен и предизвикателен клас фалшификати. В действителност това ефективно нулира технологичната надпревара във въоръжаването, което изисква преосмисляне на стратегиите за защита, за да
се противодейства на отчетливите и по-фини характеристики на генерираните от дифюзия медии.
Освен това, естеството на тези генеративни модели като “черна кутия” увеличава сложността на усилията за превенция на източника. Както GAN, така и дифузионните модели работят в неконтролирана или полуконтролирана форма, като се учат да имитират статистическото разпределение на наборите от данни, без изрични семантични етикети. Те не се учат “какво представлява лице” по начин, който е разбираем за хората, а се учат “какви модели на пикселите са възможни в набора от данни на лицата”. Това прави изключително трудно програмируемото ограничаване директно в генеративния процес (напр. “не генерирай вредни изображения”). Моделът просто оптимизира математическа функция: или да заблуди дискриминатора, или да обърне процеса на шум. Това означава, че превенцията не може да разчита на регулиране на основните алгоритми отвътре. Най-осъществимите интервенции трябва да се случат преди генерирането (чрез контролиране на данните за обучение) или след генерирането (чрез откриване, водни знаци и произход), тъй като самият акт на създаване е по същество устойчив на директното управление.
Сравнителен анализ на генеративни двигатели
Разбирането на стратегическите разлики между GAN и дифузионните модели е от решаващо значение за всеки заинтересован участник, от създателите на политики до служителите по корпоративна сигурност. Технологичната доминация на последните над първите има дълбоки последици за трудността на откриване, потенциала за измама и цялостната картина на заплахите.
Характеристика | Генеративни състезателни мрежи (GAN) | Дифузионни модели | Стратегически последици |
---|---|---|---|
Основен механизъм | Генератор и дискриминатор се конкурират в игра с нулев сбор. | Невронна мрежа се научава да обръща процеса на постепенно “зашумяване”. | Итеративното усъвършенстване на дифузията произвежда по-висока точност и по-малко структурни грешки. |
Процес на обучение | Известен с нестабилност; склонен към “срив на режима” и бавна конвергенция. | Процесът на обучение е стабилен и надежден, но изчислително интензивен. | По-ниска бариера за навлизане за постигане на висококачествени резултати с дифузионни модели, демократизиране на заплахите. |
Качество на изхода | Може да генерира висококачествени изображения, но може да съдържа фини артефакти. | В момента най-високите нива на фотореализъм и разнообразие; често неразличими от реални снимки. | Фалшификатите стават по-убедителни, размиват евристиката “да повярваш на очите си” и предизвикват откриването от хора. |
Откриваемост | По-старите методи за откриване често са настроени да търсят специфични за GAN артефакти (напр. честотни дисбаланси). | Оставя много детектори, базирани на GAN, остарели. Изображенията съдържат по-малко очевидни артефакти и съвпадат по-тясно със статистическите данни за реалните данни. | Deepfake “надпревара във въоръжаването” се нулира. Изследванията и разработките за откриване трябва да се изместят към фокусиране върху специфични за дифузия знаци. |
Известни модели | StyleGAN, CycleGAN | DALL-E, Stable Diffusion, Imagen, Sora | Най-мощните и широко използвани инструменти сега са базирани на дифузия, което ускорява заплахите. |
Цифрова Имунна Система: Сравнителен Анализ на Методи за Откриване
В отговор на разпространението на синтетични медии се появи разнообразен пейзаж от методи за откриване, образувайки зараждаща се “цифрова имунна система”. Тези техники варират от криминалистичен анализ на цифрови артефакти до иновативни подходи за откриване на скрити биологични сигнали. Ефективността на тази имунна система обаче е постоянно оспорвана от бързото развитие на генеративните модели и враждебните атаки, насочени към избягване на откриването. Непрекъснатата борба между създаване и откриване е парадокс на “червената кралица”, в който защитниците трябва постоянно да иновират, за да поддържат статуквото.
Криминалистичен Анализ на Цифрови Артефакти
Най-утвърдената категория за откриване на deepfake включва криминалистичен анализ на цифрови артефакти, фини дефекти и несъответствия, оставени от процеса на генериране. Те често са трудни за идентифициране и невидими за невъоръжено око, но могат да бъдат открити от специализирани алгоритми.
Визуални и анатомични несъответствия: Ранните и дори някои сегашни генеративни модели се борят да възпроизведат перфектно сложността на човешката анатомия и реалната физика. Методите за откриване използват тези недостатъци, като анализират специфични аномалии в медиите. Те включват неестествени модели на мигане, било то излишно, недостатъчно или изобщо липсващо (често поради недостиг на изображения със затворени очи в данните за обучение), роботизирани или несъгласувани движения на очите и ограничени форми на устните или устата, при които долните зъби никога не се показват. Други показатели са липсата на фини промени в ноздрите по време на говорене, осветление и несъответствия в сенките, които не съответстват на околната среда, както и грешки или липсващи отражения в очила или други отразяващи повърхности.
Анализ на пиксели и компресиране: Тези техники работят на по-ниско ниво, като изследват цифровата структура на изображение или видео. Анализът на нива на грешки (ELA) е метод за идентифициране на области в дадено изображение, които имат различни нива на компресиране. Тъй като манипулираните области често се запазват или компресират отново, те могат да покажат различни нива на грешки в сравнение с оригиналните части на изображението, като по този начин подчертават фалшификатите. Тясно свързан с това е Анализът на ръбовете и смесването, който внимателно изследва границите и контурите между синтетични елементи (например, разменени лица) и реалния фон. Тези области могат да издадат манипулация чрез знаци като несъгласувана пикселизация, неестествена острота или замъгляване и фини разлики в цветовете и текстурите.
Анализ на честотната област: Вместо да анализират директно пикселите, тези методи преобразуват изображението в неговите честотни компоненти, за да търсят неестествени модели. Генераторите на GAN често оставят отличителни спектрални артефакти поради своята архитектура за постепенно увеличаване на дискретизацията, създавайки периодични модели, които не се срещат в реални изображения. Въпреки че това е ефективно за повечето GAN, но не и за дифузионни модели, генериращите изображения с по-естествени честотни профили. Въпреки това някои проучвания предполагат, че дифузионните модели все пак могат да показват откриваеми несъответствия във високочестотните детайли в сравнение с реалните изображения, което предоставя потенциален път за откриване.
Анализ на биологични сигнали: “Сърдечният ритъм” на Deepfake
По-нова и изключително обещаваща област в откриването на deepfake включва анализ за наличието на истински биологични сигнали в медиите. Основната предпоставка е, че въпреки че генеративните модели стават все по-добри в възпроизвеждането на визуални изяви, те се борят да симулират скрити физиологични процеси на живо същество.
Основната техника в тази област е отдалечена фотоплетизмография (rPPG). Тази техника използва стандартна камера за откриване на малки периодични промени в цвета на кожата, които се случват, когато сърцето изпомпва кръв към повърхностните кръвоносни съдове в лицето. В реално видео на човек това произвежда слаб, но последователен пулсов сигнал. В deepfake този сигнал често липсва, е изкривен или несъгласуван.
Методът включва множество стъпки:
Изваждане на сигнал: rPPG сигналите се извличат от множество области от видеото, които представляват интерес (ROI) от лицето на лицето.
Обработка на сигнала: Суровият сигнал се почиства от шум и след това се обработва (често с помощта на Fast Fourier Transform (FFT)), за да се анализират неговите характеристики във времевата и спектралната област. FFT може да разкрие доминиращата честота на сигнала, която съответства на сърдечната честота.
Класификация: Класификатор (например, CNN) се обучава да разграничава кохерентни ритмични модели на истински сърдечен ритъм от шумните, несъгласувани или липсващи сигнали, открити във фалшиви видеоклипове.
Този подход е постигнал много висока точност на откриване в контролирани експериментални настройки, като някои проучвания отчитат точност до 99,22%. Този метод обаче има ключова уязвимост. По-усъвършенстваните deepfake техники (по-специално тези, които включват повторно изпълнение) могат да наследят физиологичните сигнали от изходен или “движещ” видеоклип. Това означава, че deepfake може да покаже напълно нормален и последователен rPPG сигнал. Това би бил сърдечният ритъм на актьора източник, а не на лицето, изобразено в крайните видеоклипове. Това установяване поставя под въпрос простото приемане на липсата на физиологични сигнали в deepfake и повишава бариерата пред откриването. Бъдещите подходи трябва да надхвърлят просто проверката на наличието на пулс, а да проверят физиологичното съответствие и специфичните за идентичността характеристики на сигнала.
Надпреварата във въоръжаването за откриване: Предизвикателства от дифузионни модели и враждебни атаки
Полето за откриване на deepfake се дефинира от безмилостна надпревара във въоръжаването. Веднъж разработени надеждни методи за откриване, генеративните модели непрекъснато се развиват, за да ги преодолеят. Последният възход на дифузионните модели и използването на враждебни атаки представляват две от най-значимите предизвикателства, с които се сблъскват съвременните детектори.
Неуспех на обобщаването: Основна слабост за много модели за откриване е тяхната неспособност да се обобщават. Детектор, обучен да идентифицира фалшификати от определен генеративен модел (напр. StyleGAN2) или в определен набор от данни, често се проваля, когато се сблъска с нови техники за манипулация или различни области на данни. Дифузионните модели правят този проблем особено остър. Тъй като техните изходи съдържат по-малко очевидни артефакти, съдържат по-голямо разнообразие и по-тясно съответстват на статистическите свойства на реалните изображения, те могат ефективно да избегнат детекторите, проектирани за GAN. За да се справи с това, изследователите разработват нови и по-трудни набори от данни за сравнение, включващи усъвършенствани дифузионни deepfake, за да стимулират създаването на по-стабилни и по-универсални детектори.
Враждебни атаки: Дори високоточни детектори са уязвими на директно подкопаване чрез враждебни атаки. В този сценарий нападателят въвежда малки забележими пертурбации в пикселите на deepfake изображението. Докато тези промени са невидими за хората, те са специално проектирани да експлоатират слабостите в невронната мрежа на детектора, което я кара да класифицира погрешно фалшивото изображение като истинско. Тази заплаха съществува както в настройка “бяла кутия” (където нападателят има пълни познания за архитектурата на детектора), така и в по-реалистична настройка “черна кутия” (където нападателят може само да заявки детектора и да наблюдава неговите изходи).
В отговор изследователската общност се фокусира върху разработването на детектори от следващо поколение с подобрена устойчивост. Ключовите стратегии включват:
Разнообразие на данните за обучение: Увеличаването на наборите от данни за обучение, за да се включат различни фалшификати от GAN и дифузионни модели, както и различни области на изображения, е доказано, че насърчават обобщаването.
Разширени стратегии за обучение: Изследват се нови техники (като “Momentum Hardness Boosting”), за да се помогне на моделите да се обучават по-ефективно върху хетерогенни набори от данни чрез претегляне на извадки въз основа на колко трудно е класифицирането, основано на динамична извадка.
Архитектури за стабилност: Проектират се нови архитектури, които са от фундаментално значение по-устойчиви на атаки. Един обещаващ подход е да се използват несвързани ансамбли, в които множество модели се обучават върху различни и непредпокриващи се подмножества на честотния спектър на изображението. Това принуждава нападателя да намери пертурбации, които могат да мамят множество модели едновременно, задача, която е много по-трудна. Други хибридни методи обединяват функции от пространствените и честотните области, за да изградят по-обхватни модели на данните.
Непрекъснатото движение напред-назад между генеративните и детекторните технологии предполага, че всяка статична защита е обречена да остарее. Тъй като генеративните модели продължават да се развиват, за да премахват признаци като аномални мигания или GAN артефакти, детекторите трябва да се преместят към по-фини сигнали, като високочестотните несъответствия или rPPG подписи. От своя страна, може да се обучат генеративни модели да имитират тези сигнали, както е видно при наследяването на rPPG от изходни видеоклипове. Този вечен цикъл предполага, че стратегиите за превенция, които разчитат единствено на реакционно откриване, участват в скъпа и потенциално непобедима надпревара във въоръжаването.
Най-трайните стратегии за откриване вероятно ще бъдат тези, които използват фундаменталните пропуски между цифровата симулация и физическата реалност. Докато визуалните артефакти са дефекти в симулацията, които могат да бъдат постепенно отстранени с по-добри алгоритми и повече изчислителна мощ, биологията и физиката, произтичащи от първите принципи е много по-трудно за AI да моделира. Един генеративен модел не “разбира” човешката сърдечно-съдова система. Той просто се учи да възпроизвежда пикселни модели, свързани с лицето. Докато може да бъде обучен да имитира визуалните резултати от сърдечен удар, да генерира физиологично последователен и точен сигнал за нова идентичност от нулата, ще изисква моделиране на цяла
биологична система, предизвикателство от по-висок ред. Най-надеждните изследвания за откриване следователно ще се фокусират върху тези “физически пропуски”, не само включително rPPG, но потенциално и други знаци като фини дихателни модели, неволеви разширения на зениците и микроизражения, които се контролират от сложни биологични процеси и е трудно да се симулират с висока точност.
Изграждане на Цифрово Доверие: Проактивна Превенция чрез Водни Знаци и Произход
Предвид присъщите ограничения на стратегиите за чисто реакционно откриване, по-устойчива и устойчива схема за превантивна защита срещу deepfake наранявания включва проактивни мерки. Тези техники имат за цел да създадат доверие и отчетност в екосистемата на цифровите медии от момента на създаване. Вместо да се фокусира върху идентифицирането на фалшификатите, след като са създадени и разпространени, тази парадигма измества фокуса към проверката на автентичността и произхода на легитимното съдържание. Две водещи техники в тази област са криминалистичните цифрови водни знаци и произхода на съдържанието, базиран на блокчейн.
Криминалистични Цифрови Водни Знаци: Невидим Подпис
Криминалистичните цифрови водни знаци са проактивна техника, която вгражда уникален и трудно забележим идентификатор директно в цифрово съдържание, като например изображения, видеоклипове или документи. За разлика от видимите водни знаци (като лога, които се наслагват върху изображение), криминалистичните водни знаци са скрити в данните на самия файл и са проектирани да бъдат изключително стабилни. Добре проектираният криминалистичен воден знак може да оцелее при чести операции с файлове, включително компресиране, изрязване, промяна на размера, настройка на цветовете и дори екранни снимки или заснемане от екран към камера.
В контекста на превенцията на deepfake, криминалистичните водни знаци служат за няколко ключови функции:
Проследяване на източника и отчетност: Чрез вграждане на уникална информация, която идентифицира създателя, потребителя или канала за разпространение, водните знаци могат да се използват за проследяване на техния източник, ако злонамерен deepfake бъде изтекъл или злоупотребен. Например, в среди за видео по заявка (VOD) или предприятие системите могат да използват A/B водни знаци, за да предоставят на всеки потребител леко различна, уникално водна видео версия. Ако копие се появи онлайн, водният знак може да се извлече, за да се идентифицира точно източникът на изтичане, предоставяйки силни доказателства за правни или административни действия.
Проверка на автентичността: Водните знаци могат да служат като знак за автентичност за официално съдържание. Правителствени агенции, компании или новинарски организации могат да вградят уникален воден знак в своите легални медии. Това позволява да се провери истинността на истинските комуникации и помага да се открият и блокират опитите за представяне чрез използване на deepfake.
Проследяване на жизнения цикъл: Поддръжниците препоръчват интегрирането на водни знаци на различни етапи от жизнения цикъл на съдържанието. Например, водни знаци могат да се вграждат по време на качване в социални медии, приложения за съобщения или дори от самото приложение за създаване на deepfake, за да се създаде проследим запис за това как е генерирано и разпространено манипулираното съдържание.
Разработват се усъвършенствани техники за водни знаци, специално проектирани да противодействат на deepfake манипулациите. Нов подход включва проектиране на невронна мрежа, която вгражда водния знак директно в характеристиките на идентичността на лицевото изображение. Това прави водния знак изключително чувствителен към манипулации на размяната на лица, тъй като такава операция по същество променя характеристиките на идентичността и следователно нарушава водния знак, като същевременно поддържа стабилност спрямо традиционните модификации на изображенията, като компресиране или промяна на размера.
Въпреки широкото обещание на водните знаци, остават значителни предизвикателства. Първо, водните знаци не са непобедими. Изследванията показват, че може да се използват враждебни техники (специално такива, използващи дифузионни модели), за да се “разтвори” или реконструира изображение, ефективно премахвайки вградения воден знак. Второ и по-важно е, че ефективността на водните знаци като системно решение зависи от широко приемане. В момента няма правно или регулаторно изискване за deepfake приложения или социални платформи да прилагат водни знаци, което ги прави доброволен и фрагментиран начин на използване.
Блокчейн и Произход на Съдържанието: Неизменяем Регистър
Допълваща проактивна стратегия е да се използва блокче