AK - zamknięte

 0    276 fiche    patka1555
skriva ut spela Kontrollera dig själv
 
Fråga - Svar -
Cechy architektury CISC: Czy może być wykonana w VLIW?
börja lära sig
FAŁSZ
Cechy architektury CISC: Czy występuje model wymiany danych typu pamięć - pamięć
börja lära sig
PRAWDA
Cechy architektury CISC: Jest mała liczba rozkazów
börja lära sig
FAŁSZ
Cechy architektury RISC Czy występuje model wymiany danych typu rej-rej
börja lära sig
PRAWDA
Cechy architektury RISC Jest mała liczba trybów adresowania
börja lära sig
PRAWDA
Cechy architektury RISC Jest wykonywanych kilka rozkazów w jednym takcie
börja lära sig
FAŁSZ
Cechy architektury RISC Jest wykonywanych kilka rozkazów w jednym takcie (w danej chwili czasu)
börja lära sig
PRAWDA
Cechy architektury RISC Jest wykonywanych kilka instrukcji procesora w jednym rozkazie asemblerowym
börja lära sig
FAŁSZ
Cechy architektury RISC Układ sterowania w postaci logiki szytej
börja lära sig
PRAWDA
Architektura RISC charakteryzuje się: Niedużą liczbą trybów adresowania
börja lära sig
PRAWDA
Architektura RISC charakteryzuje się: Modelem obliczeń pamięć - pamięć
börja lära sig
FAŁSZ
Architektura RISC charakteryzuje się: Wykorzystaniem mikroprogramowalnych układów sterujących
börja lära sig
FAŁSZ
Architektura RISC charakteryzuje się: Niezbyt obszerną listą rozkazów
börja lära sig
PRAWDA
Architektura RISC charakteryzuje się: Intensywnym wykorzystaniem przetwarzania potokowego
börja lära sig
PRAWDA
Okna rejestrów Chronią przez hazardem danych
börja lära sig
FAŁSZ
Okna rejestrów Minimalizują liczbę odwołań do pamięci operacyjnej przy operacjach wywołania procedur
börja lära sig
PRAWDA
Okna rejestrów Są charakterystyczne dla architektury CISC
börja lära sig
FAŁSZ
Okna rejestrów Są zamykane po błędnym przewidywaniu wykonania skoków warunkowych.
börja lära sig
FAŁSZ
Okna rejestrów Są przesuwane przy operacjach wywołania procedur
börja lära sig
PRAWDA
Okna rejestrów Są przesuwane przy wystąpieniu rozkazów rozgałęzień
börja lära sig
FAŁSZ
Okna rejestrów Są otwierane przy występowaniu rozkazów rozgałęzień
börja lära sig
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane dla operacji zmiennoprzecinkowych
börja lära sig
FAŁSZ
Przetwarzanie potokowe: Nie jest realizowane w procesorach CISC
börja lära sig
FAŁSZ
Przetwarzanie potokowe: Daje przyspieszenie nie większe od liczby segmentów (stopni) jednostki potokowej
börja lära sig
PRAWDA
Przetwarzanie potokowe: W przypadku wystąpienia zależności między danymi wywołuje błąd i przerwanie wewnętrzne.
börja lära sig
FAŁSZ
Przetwarzanie potokowe: Jest realizowane tylko dla operacji zmiennoprzecinkowych
börja lära sig
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uszeregowania ciągu wykonywanych rozkazów
börja lära sig
FAŁSZ
Mechanizmy potokowe stosowane są w celu: Uzyskania równoległej realizacji rozkazów
börja lära sig
PRAWDA
Mechanizmy potokowe stosowane są w celu: Przyspieszenia realizacji rozkazów
börja lära sig
PRAWDA
Hazard danych: Czasami może być usunięty przez zmianę kolejności wykonania rozkazów
börja lära sig
PRAWDA
Hazard danych: Nie występuje w architekturze superskalarnej
börja lära sig
FAŁSZ
Hazard danych: Jest eliminowany przez zastosowanie specjalnego bitu w kodzie program
börja lära sig
FAŁSZ
Hazard danych: Może wymagać wyczyszczenia potoku i rozpoczęcia nowej (...)
börja lära sig
FAŁSZ
Jak można ominąć hazard danych: Poprzez rozgałęzienia
börja lära sig
FAŁSZ
Jak można ominąć hazard danych: Poprzez rozgałęzienia
börja lära sig
FAŁSZ
Jak można ominąć hazard danych: Przez zamianę rozkazów
börja lära sig
PRAWDA
Dla uniknięcia hazardu danych można: Zastosować uproszczone metody adresacji
börja lära sig
FAŁSZ
Dla uniknięcia hazardu danych można: Wykorzystać szynę zwrotną.
börja lära sig
PRAWDA
Dla uniknięcia hazardu danych można: Zastosować specjalny bit w kodzie rozkazu.
börja lära sig
FAŁSZ
Dla uniknięcia hazardu danych można: Zastosować tablicę historii rozgałęzień.
börja lära sig
FAŁSZ
Dla uniknięcia hazardu danych można: Wstrzymać na 1 takt napełnianie potoku.
börja lära sig
PRAWDA
Mechanizm skoków opóźnionych: Polega na opóźnianiu wykonywania skoku do czasu wykonania rozkazu następnego za skokiem
börja lära sig
PRAWDA
Mechanizm skoków opóźnionych: Wymaga wstrzymania potoku na jeden takt.
börja lära sig
FAŁSZ
Mechanizm skoków opóźnionych: Powoduje błąd na końcu pętli
börja lära sig
FAŁSZ
Mechanizm skoków opóźnionych: Wymaga umieszczenia rozkazu NOP za rozkazem skoku lub reorganizacje programu
börja lära sig
PRAWDA
Tablica historii rozgałęzień: Zawiera m.in. adresy rozkazów rozgałęzień
börja lära sig
PRAWDA
Tablica historii rozgałęzień: Pozwala zminimalizować liczbę błędnych przewidywań rozgałęzień w zagnieżdżonej pętli
börja lära sig
PRAWDA
Tablica historii rozgałęzień: Nie może być stosowana w procesorach CISC
börja lära sig
FAŁSZ
Tablica historii rozgałęzień: Jest obsługiwana przez jądro systemu operacyjnego
börja lära sig
FAŁSZ
Tablica historii rozgałęzień: Jest stosowana do statycznego przewidywania rozgałęzień.
börja lära sig
FAŁSZ
Tablica historii rozgałęzień: Pozwala zapamiętać całą historię wykonań każdego rozkazu rozgałęzienia.
börja lära sig
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Skok opóźniony
börja lära sig
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie (skok warunkowy) zawsze nastąpi
börja lära sig
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że rozgałęzienie nigdy nie nastąpi
börja lära sig
FAŁSZ
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Przewidywanie, że kolejne wykonanie rozkazu rozgałęzienia będzie przebiegało tak samo jak poprzednie
börja lära sig
PRAWDA
W tablicy historii rozgałęzień z 1 bitem historii można zastosować następujący algorytm przewidywania (najbardziej złożony): Wstrzymanie napełniania potoku
börja lära sig
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Zapewnienia spójności pamięci podręcznej
börja lära sig
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Tablicy historii rozgałęzień
börja lära sig
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Techniki wyprzedzającego pobrania argumentu
börja lära sig
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wystawienia do programu rozkazów typu „nic nie rób”
börja lära sig
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Protokołu MESI
börja lära sig
FAŁSZ
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Wykorzystania techniki skoków opóźniających
börja lära sig
PRAWDA
Problemy z potokowym wykonywaniem rozkazów skoków (rozgałęzień) mogą być wyeliminowane lub ograniczone przy pomocy: Technologii MMX
börja lära sig
FAŁSZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Wstrzymanie realizowanego wątku i przejście do realizacji innego wątku
börja lära sig
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia kolejki rozkazów do potoku
börja lära sig
PRAWDA
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność wyczyszczenia tablicy historii rozgałęzień.
börja lära sig
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Przerwanie realizowanego procesu / wątku i sygnalizacja wyjątku
börja lära sig
FAŁASZ
Konsekwencją błędu przy przewidywaniu rozgałęzień może być: Konieczność przemianowania rejestrów w procesorach
börja lära sig
FAŁASZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w 1 takcie zależy od liczby jednostek potokowych w procesorze
börja lära sig
PRAWDA
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w jednym takcie, zależy od liczby stopni potoku.
börja lära sig
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów pobieranych z pamięci, w każdym takcie musi przekraczać liczbę jednostek potokowych
börja lära sig
FAŁSZ
W procesorach superskalarnych: Liczba rozkazów, które procesor może wykonać w taktach zależy od liczby jednostek potokowych w procesorze
börja lära sig
PRAWDA
W procesorach superskalarnych: Jest możliwe równoległe wykonywanie kilku rozkazów w jednym procesorze (rdzeniu)
börja lära sig
PRAWDA
W procesorach superskalarnych: Rozszerzenia architektury wykorzystujące model SIMD umożliwiają wykonanie rozkazów wektorowych
börja lära sig
PRAWDA
W procesorach superskalarnych: Nie występuje prawdziwa zależność danych
börja lära sig
FAŁSZ
W procesorach superskalarnych: Mogą wystąpić nowe formy hazardu danych: zależności wyjściowe między rozkazami oraz antyzależności
börja lära sig
PRAWDA
W procesorach superskalarnych: Nie występuje hazard danych (problemy z potokowym wykonaniem rozkazów o zależnych argumentach).
börja lära sig
FAŁSZ
W procesorach superskalarnych: Hazard sterowania jest całkowicie eliminowany przez statyczne strategie przewidywania rozgałęzień.
börja lära sig
FAŁSZ
Architektura superskalarna: Dotyczy systemów SMP
börja lära sig
FAŁSZ
Architektura superskalarna: Wymaga zastosowania protokołu MESI
börja lära sig
FAŁSZ
Architektura superskalarna: Umożliwia równoległe wykonywanie kilku rozkazów w jednym procesorze
börja lära sig
PRAWDA
Architektura superskalarna: Wywodzi się z architektury VLIW
börja lära sig
FAŁSZ
Architektura superskalarna: Wykorzystuje wiele potokowych jednostek funkcjonalnych
börja lära sig
PRAWDA
Architektura superskalarna: Nie dopuszcza do wystąpienia hazardu sterowania
börja lära sig
FAŁSZ
Architektura superskalarna: Umożliwia wykonanie wielu rozkazów w jednym takcie
börja lära sig
PRAWDA
Architektura superskalarna: Wykorzystuje model obliczeń pamięć - pamięć
börja lära sig
FAŁSZ
Architektura superskalarna: Jest stosowana tylko w procesorach wielordzeniowych
börja lära sig
FAŁSZ
Przetwarzanie wielowątkowe: Zapewnia lepsze wykorzystanie potoków
börja lära sig
PRAWDA
Przetwarzanie wielowątkowe: Minimalizuje straty wynikające z chybionych odwołań do pamięci podręcznej
börja lära sig
PRAWDA
Przetwarzanie wielowątkowe: Wymaga zwielokrotnienia zasobów procesora (rejestry, liczniki rozkazów, itp.)
börja lära sig
PRAWDA
Przetwarzanie wielowątkowe: Nie może być stosowane w przypadku hazardu danych
börja lära sig
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MIMD
börja lära sig
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Odnosi się m.in. do przetwarzania potokowego
börja lära sig
PRAWDA
Pojęcie równoległości na poziomie rozkazów: Dotyczy architektury MPP
börja lära sig
FAŁSZ
Pojęcie równoległości na poziomie rozkazów: Dotyczy m.in. architektury superskalarnej
börja lära sig
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery wektorowe
börja lära sig
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Komputery macierzowe
börja lära sig
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Klastry
börja lära sig
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Procesory graficzne
börja lära sig
PRAWDA
Efektywne wykorzystanie równoległości na poziomie danych umożliwiają: Rozszerzenia SIMD procesorów superskalarnych
börja lära sig
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Możliwość wprowadzenia rozkazów różnych wątków do wielu potoków
börja lära sig
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Realizację każdego z wątków do momentu wstrzymania któregoś rozkazu z danego wątku
börja lära sig
PRAWDA
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Przełączanie wątków co takt
börja lära sig
FAŁSZ
Wielowątkowość współbieżna w procesorze wielopotokowym zapewnia: Automatyczne przemianowanie rejestrów
börja lära sig
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Błędnego przewidywania rozgałęzień
börja lära sig
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Chybionego odwołania do pamięci podręcznej
börja lära sig
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Prawdziwej zależności danych
börja lära sig
FAŁSZ
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Zależności wyjściowej między rozkazami.
börja lära sig
PRAWDA
Metoda przemianowania rejestrów jest stosowana w celu eliminacji: Antyzależności między rozkazami
börja lära sig
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Zależności wyjściowej miedzy rozkazami
börja lära sig
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Prawdziwej zależności danych
börja lära sig
PRAWDA
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Błędnego przewidywania rozgałęzień
börja lära sig
FAŁSZ
Wyprzedzające pobranie argumentu pozwala rozwiązać konflikt wynikający z: Antyzależności miedzy rozkazami
börja lära sig
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: GFLOPS
börja lära sig
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie instrukcji wykonywanych na sekundę
börja lära sig
FAŁSZ
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Liczbie operacji zmiennoprzecinkowych na sekundę
börja lära sig
PRAWDA
Przepustowość (moc obliczeniowa) dużych komputerów jest podawana w: Mb/sek
börja lära sig
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba jednostek przetwarzających i sterujących w systemach komputerowych
börja lära sig
FAŁSZ
Podstawą klasyfikacji Flynna jest: Protokół dostępu do pamięci operacyjnej
börja lära sig
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba modułów pamięci operacyjnej w systemach komputerowych
börja lära sig
FAŁSZ
Podstawą klasyfikacji Flynna jest: Sposób połączenia jednostek przetwarzających z modułami pamięci operacyjnej.
börja lära sig
FAŁSZ
Podstawą klasyfikacji Flynna jest: Liczba strumieni rozkazów i danych w systemach komputerowych
börja lära sig
PRAWDA
Model SIMD: Był wykorzystywany tylko w procesorach macierzowych
börja lära sig
FAŁSZ
Model SIMD: Jest wykorzystywany w multimedialnych rozszerzeniach współczesnych procesorów
börja lära sig
PRAWDA
Model SIMD: Jest wykorzystywany w heterogenicznej architekturze PowerXCell
börja lära sig
PRAWDA
Model SIMD: Zapewnia wykonanie tej samej operacji na wektorach argumentów
börja lära sig
PRAWDA
Model SIMD: Jest podstawą rozkazów wektorowych
börja lära sig
PRAWDA
Model SIMD: Jest podstawą architektury procesorów superskalarnych
börja lära sig
FAŁSZ
Komputery wektorowe: Posiadają jednostki potokowe o budowie wektorowej
börja lära sig
FAŁSZ
Komputery wektorowe: Posiadają w liście rozkazów m.in. rozkazy operujące na wektorach danych
börja lära sig
PRAWDA
Komputery wektorowe: Wykorzystują od kilku do kilkunastu potokowych jednostek arytmetycznych
börja lära sig
PRAWDA
Komputery wektorowe: Posiadają listę rozkazów operujących wyłącznie na wektorach
börja lära sig
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy od liczby stopni potoku.
börja lära sig
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Jest odwrotnie proporcjonalna do długości taktu zegarowego
börja lära sig
PRAWDA
Moc obliczeniowa komputerów wektorowych: Jest wprost proporcjonalna do długości taktu zegarowego
börja lära sig
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy odwrotnie proporcjonalnie od liczby jednostek potokowych połączonych łańcuchowo.
börja lära sig
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zmierza asymptotycznie do wartości maksymalnej wraz ze wzrostem długości wektora
börja lära sig
PRAWDA
Moc obliczeniowa komputerów wektorowych: Nie zależy od długości wektora
börja lära sig
FAŁSZ
Moc obliczeniowa komputerów wektorowych: Zależy liniowo od długości wektora
börja lära sig
FAŁSZ
Procesory wektorowe: Mogą być stosowane w systemach wieloprocesorowych
börja lära sig
PRAWDA
Procesory wektorowe: Mają listę rozkazów operującą jedynie na wektorach
börja lära sig
FAŁSZ
Procesory wektorowe: Mają moc kilka razy większą od procesorów skalarnych
börja lära sig
PRAWDA
Komputery macierzowe: Mają w liście rozkazów m.in. rozkazy operujące na wektorach danych
börja lära sig
PRAWDA
Komputery macierzowe: Mają macierzowe potokowe układy arytmetyczne
börja lära sig
FAŁSZ
Komputery macierzowe: Mają w typowych rozwiązaniach zestaw pełnych procesów połączonych siecią połącze
börja lära sig
FAŁSZ
Komputery macierzowe: Wykonują synchroniczną operację wektorową w sieci elementów przetwarzającycH
börja lära sig
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Macierzy elementów przetwarzających
börja lära sig
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Zestawu procesorów superskalarnych
börja lära sig
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Technologii MMX
börja lära sig
PRAWDA
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Sieci połączeń typu krata
börja lära sig
FAŁSZ
Rozkazy wektorowe mogą być realizowane przy wykorzystaniu: Potokowych jednostek arytmetycznych
börja lära sig
PRAWDA
Rozkazy wektorowe: Nie mogą być wykonywane bez użycia potokowych jednostek arytmetycznych
börja lära sig
FAŁSZ
Rozkazy wektorowe: Są charakterystyczne dla architektury SIMD
börja lära sig
PRAWDA
Rozkazy wektorowe: Są rozkazami dwuargumentowymi i w wyniku zawsze dają wektor
börja lära sig
FAŁSZ
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest wprost proporcjonalny do długości wektora
börja lära sig
PRAWDA
Rozkazy wektorowe: W komputerach wektorowych ich czas wykonania jest liniowo zależny od długości wektora
börja lära sig
FAŁSZ
Rozkazy wektorowe: W komputerach macierzowych ich czas wykonania jest wprost proporcjonalny do liczby elementów przetwarzających
börja lära sig
FAŁSZ
Rozkazy wektorowe: Mogą być wykonane na sieci elementów przetwarzających.
börja lära sig
PRAWDA
Architektura CUDA: Umożliwia bardzo wydajne wykonywanie operacji graficznych
börja lära sig
PRAWDA
Architektura CUDA: Stanowi uniwersalną architekturę obliczeniowa połączoną z równoległym modelem programistycznym
börja lära sig
PRAWDA
Architektura CUDA: Realizuje model obliczeniowy SIMT
börja lära sig
PRAWDA
Architektura CUDA: Jest podstawą budowy samodzielnych, bardzo wydajnych komputerów
börja lära sig
FAŁSZ
Systemy SMP: Wykorzystują protokół MESI do sterowania dostępem do wspólnej magistrali
börja lära sig
FAŁSZ
Systemy SMP: Posiadają skalowalne procesory
börja lära sig
FAŁSZ
Systemy SMP: Posiadają pamięć fizycznie rozproszoną, ale logicznie wspólną
börja lära sig
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Zapewniają spójność pamięci podręcznych wszystkich procesorów
börja lära sig
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Mają niską skalowalność
börja lära sig
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują katalog do utrzymania spójności pamięci.
börja lära sig
PRAWDA
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Wykorzystują przesył komunikatów między procesorami.
börja lära sig
FAŁSZ
Systemy wieloprocesorowe z jednorodnym dostępem do pamięci (UMA): Umożliwiają dostęp do pamięci najczęściej poprzez wspólną magistralę lub przełącznicę krzyżową.
börja lära sig
PRAWDA
Protokół MESI: Jest wykorzystywany do sterowania dostępem do magistrali w systemie SMP
börja lära sig
FAŁSZ
Protokół MESI: Zapewnia spójność pamięci cache w systemie SMP
börja lära sig
PRAWDA
Protokół MESI: Służy do wymiany komunikatów w systemie MPP
börja lära sig
FAŁSZ
Protokół MESI: Chroni przed hazardem w procesorach superskalarnych
börja lära sig
FAŁSZ
W architekturze NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej (PaP)
börja lära sig
PRAWDA
W architekturze NUMA: Spójność PaP węzłów jest utrzymywana za pomocą protokołu MESI
börja lära sig
FAŁSZ
W architekturze NUMA: Czas dostępu do pamięci lokalnej w węźle jest podobny do czasu dostępu do pamięci nielokalnej
börja lära sig
FAŁSZ
W architekturze NUMA: Czas zapisu danych do pamięci nielokalnej może być znacznie dłuższy od czasu odczytu z tej pamięci
börja lära sig
PRAWDA
W architekturze NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
börja lära sig
PRAWDA
W architekturze NUMA: Procesy komunikują się poprzez przesył komunikatów
börja lära sig
FAŁSZ
W architekturze NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
börja lära sig
PRAWDA
W architekturze CC-NUMA: Każdy procesor ma dostęp do pamięci operacyjnej każdego węzła
börja lära sig
PRAWDA
W architekturze CC-NUMA: Spójność pamięci pomiędzy węzłami jest utrzymywana za pomocą protokołu MESI
börja lära sig
FAŁSZ
W architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
börja lära sig
PRAWDA
W architekturze CC-NUMA: Pamięć operacyjna jest fizycznie rozproszona pomiędzy węzłami, ale wspólna logicznie
börja lära sig
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Spójność pamięci wszystkich węzłów jest utrzymywana za pomocą katalogu
börja lära sig
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Pamięć operacyjna jest rozproszona fizycznie pomiędzy węzłami, ale wspólna logicznie
börja lära sig
PRAWDA
W systemach wieloprocesorowych o architekturze CC-NUMA: Każdy procesor ma bezpośredni dostęp do pamięci operacyjnej każdego węzła
börja lära sig
FAŁSZ
W systemach wieloprocesorowych o architekturze CC-NUMA: Dane są wymieniane między węzłami w postaci linii pamięci podręcznej
börja lära sig
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Rodzaju dostępu (odczyt - zapis)
börja lära sig
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Stanu linii (zapisanego w katalogu), do której następuje odwołanie
börja lära sig
FAŁSZ
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Położenia komórki, do której odwołuje się rozkaz (lokalna pamięć węzła – pamięć innego węzła)
börja lära sig
PRAWDA
W architekturze CC-NUMA czas dostępu do pamięci operacyjnej może zależeć od: Odległości węzłów, zaangażowanych w wykonanie rozkazu, w strukturze sieci łączącej
börja lära sig
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci podręcznych poziomu L1 i L2 w procesorach wielordzeniowych
börja lära sig
FAŁSZ
Katalog może być stosowany do: Utrzymania spójności pamięci wszystkich węzłów w systemach CC-NUMA
börja lära sig
PRAWDA
Katalog może być stosowany do: Sterowania realizacją wątków w architekturze CUDA
börja lära sig
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Przełącznicy krzyżowej
börja lära sig
FAŁSZ
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Katalogu
börja lära sig
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Protokołu MESI
börja lära sig
PRAWDA
Spójność pamięci podręcznych w procesorze wielordzeniowym może być m.in. zapewniona za pomocą: Wspólnej magistrali
börja lära sig
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Zapewniają jednorodny dostęp do pamięci
börja lära sig
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Mogą wykorzystywać procesory CISC
börja lära sig
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Są wykorzystywane w klastrach
börja lära sig
PRAWDA
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują przesył komunikatów między procesorami
börja lära sig
FAŁSZ
Systemy wieloprocesorowe z pamięcią wspólną: Wykorzystują katalog do utrzymania spójności pamięci podręcznych
börja lära sig
PRAWDA
W systemach wieloprocesorowych katalog służy do: Śledzenia adresów w protokole MESI
börja lära sig
FAŁSZ
W systemach wieloprocesorowych katalog służy do: Sterowania przesyłem komunikatów
börja lära sig
FAŁSZ
W systemach wieloprocesorowych katalog służy do: Utrzymania spójności pamięci w systemach o niejednorodnym dostępie do pamięci
börja lära sig
PRAWDA
W systemach wieloprocesorowych katalog służy do: Realizacji dostępu do nielokalnych pamięci w systemach NUMA
börja lära sig
PRAWDA
Charakterystyczne cechy architektury MPP: Spójność pamięci podręcznej wszystkich węzłów
börja lära sig
FAŁSZ
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO
börja lära sig
PRAWDA
Charakterystyczne cechy architektury MPP: Fizycznie rozproszona PaO, ale logicznie wspólna
börja lära sig
FAŁSZ
Charakterystyczne cechy architektury MPP: Przesył komunikatów między procesorami
börja lära sig
PRAWDA
Charakterystyczne cechy architektury MPP: Niska skalowalność
börja lära sig
FAŁSZ
Charakterystyczne cechy architektury MPP: Jednorodny dostęp do pamięci wszystkich węzłów
börja lära sig
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wyróżniają się bardzo dużą skalowalnością
börja lära sig
PRAWDA
Systemy pamięcią rozproszoną (MPP): Są budowane z węzłów, którymi są klastry
börja lära sig
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Realizują synchronicznie jeden wspólny program
börja lära sig
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymagają zapewnienia spójności pamięci podręcznych pomiędzy węzłami
börja lära sig
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wymianę danych i synchronizację procesów w węzłach realizują poprzez przesył komunikatów.
börja lära sig
PRAWDA
Systemy pamięcią rozproszoną (MPP): W większości przypadków wykorzystują nietypowe, firmowe rozwiązania sieci łączących węzły systemu.
börja lära sig
FAŁSZ
Systemy pamięcią rozproszoną (MPP): Wykorzystują katalog do utrzymania spójności pamięci węzłów systemu.
börja lära sig
FAŁSZ
Systemy pamięcią rozproszoną (MPP): W roli węzłów mogą wykorzystywać systemy SMP.
börja lära sig
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy SMP
börja lära sig
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Klastry
börja lära sig
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Konstelacje
börja lära sig
FAŁSZ
Systemy MPP są zbudowane z węzłów którymi mogą być: Systemy NUMA
börja lära sig
PRAWDA
Systemy MPP są zbudowane z węzłów którymi mogą być: Procesory
börja lära sig
PRAWDA
Przesył komunikatów: Ma miejsce w systemach MPP
börja lära sig
PRAWDA
Przesył komunikatów: W systemach MPP II-giej generacji angażuje wszystkie procesory na drodze przesyłu
börja lära sig
FAŁSZ
Przesył komunikatów: Ma miejsce w klastrach
börja lära sig
PRAWDA
Cechami wyróżniającymi klastry są: Niezależność programowa każdego węzła
börja lära sig
PRAWDA
Cechami wyróżniającymi klastry są: Fizycznie rozproszona, ale logicznie wspólna pamięć operacyjna
börja lära sig
FAŁSZ
Cechami wyróżniającymi klastry są: Nieduża skalowalność
börja lära sig
FAŁSZ
Cechami wyróżniającymi klastry są: Na ogół duża niezawodność Tak, po to się je buduje i na ogół
börja lära sig
PRAWDA
Klastry: Mają średnią skalowalność
börja lära sig
FAŁSZ
Klastry: Wykorzystują model wspólnej pamięci
börja lära sig
FAŁSZ
Klastry: W węzłach mogą wykorzystywać systemy SMP
börja lära sig
PRAWDA
Klastry: Do komunikacji między procesami wykorzystują przesył komunikatów
börja lära sig
PRAWDA
Klastry: Wykorzystują przełącznicę krzyżową jako sieć łączącą węzły
börja lära sig
FAŁSZ
Klastry: W każdym węźle posiadają pełną instalację systemu operacyjnego
börja lära sig
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm mirroringu dysków
börja lära sig
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Dostęp każdego węzła do wspólnych zasobów (pamięci zewnętrznych)
börja lära sig
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Redundancja węzłów
börja lära sig
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Mechanizm ”heartbeat”
börja lära sig
PRAWDA
Do czynników tworzących wysoką niezawodność klastrów należą: Zastosowanie procesorów wielordzeniowych w węzłach
börja lära sig
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne Przesył komunikatów w trybie zdalnego DMA
börja lära sig
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne Bardzo małe czasy opóźnień
börja lära sig
PRAWDA
Dla sieci systemowych (SAN) są charakterystyczne Topologia typu hipersześcian
börja lära sig
FAŁSZ
Dla sieci systemowych (SAN) są charakterystyczne Niska przepustowość
börja lära sig
FAŁSZ
Sieci systemowe (SAN) Wymagają protokołu MESI
börja lära sig
FAŁSZ
Sieci systemowe (SAN) Wykorzystują przełączniki łączone wg topologii grubego drzewa
börja lära sig
PRAWDA
Sieci systemowe (SAN) Realizują przesyły bloków danych bezpośrednio między pamięciami operacyjnymi węzłów sieci
börja lära sig
PRAWDA
Sieci systemowe (SAN) Są stosowane w klastrach
börja lära sig
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy ściśle połączone, systemy ze wspólną pamięcią, systemy SMP
börja lära sig
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy ze wspólną magistralą, systemy wielomagistralowe, systemy z przełącznicą krzyżową
börja lära sig
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy SMP, systemy z pamięcią wieloportową, systemy z przełącznicą krzyżową
börja lära sig
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: NUMA, MPP, SMP
börja lära sig
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy z pamięcią wspólną, systemy o niejednorodnym dostępie do pamięci, z pamięcią rozproszoną
börja lära sig
PRAWDA
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: SMP, NUMA, klastry, UMA
börja lära sig
FAŁSZ
Czy poniższa lista jest rosnąco uporządkowana według skalowalności: Systemy symetryczne, o niejednorodnym dostępie do pamięci, systemy z przesyłem komunikatów
börja lära sig
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Chybienia przy odwołaniu do pamięci podręcznej.
börja lära sig
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Upływu zadanego czasu (np. taktu)
börja lära sig
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Wystąpienia rozkazu rozgałęzienia
börja lära sig
FAŁSZ
Sprzętowe przełączenie wątków może być wynikiem: Błędnego przewidywania rozgałęzień
börja lära sig
PRAWDA
Sprzętowe przełączenie wątków może być wynikiem: Przesunięcia okien rejestrów
börja lära sig
FAŁSZ
Sprzętowe sterowanie wielowątkowością: Zapewnia lepsze wykorzystanie potoków.
börja lära sig
PRAWDA
Sprzętowe sterowanie wielowątkowością: Wymaga zwielokrotnienia zasobów procesora (rejestry, liczniki rozkazów i inne)
börja lära sig
PRAWDA
Sprzętowe sterowanie wielowątkowością: Nie może być stosowane w przypadku hazardu sterowania
börja lära sig
FAŁSZ
Sprzętowe sterowanie wielowątkowością: M.in. minimalizują straty wynikające z chybionych odwołań do pamięci podrecznej
börja lära sig
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: NUMA
börja lära sig
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: SMP
börja lära sig
PRAWDA
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: Klaster
börja lära sig
FAŁSZ
Dostęp każdego procesora do wspólnej pamięci operacyjnej jest realizowany w systemach: MPP
börja lära sig
FAŁSZ
Procesory wielordzeniowe: Są niezbędne do realizacji rozkazów wektorowych.
börja lära sig
FAŁSZ
Procesory wielordzeniowe: Są niezbędne do współbieżnego przetwarzania wątkowego.
börja lära sig
PRAWDA

Du måste vara inloggad för att skriva en kommentar.