Mam pytanie, mianowicie czy dobrze rozumiem działanie MMX. Mam to wykonać w swoim mikroprocesorze a nie spotkałem się jeszcze z czymś takim.
Generalnie w moim procesorze mam 8 bitowe rejestry uniwersalne (jest ich 4).
Gdybym dostał np 32 bitowe dane mógłbym potraktować je jako 4 * 8 bitów ale wykonać operacje jako 32 bitowe ? Tak jak na rysunku:
Jeśli by sie zgadzało to:
- Podstawowa długość słowa mikroprocesora to 8 bitów i długość słowa na magistrali danych 8 bitów więc jak mam upchać tam 32 bity ?
- Jeśli dajmy na to wynik operacji d+h przekroczy 8 bitów to jedynka przejdzie mi na następne 8 bitów zmieniając całkowicie wynik dodawania c+g
dodanie obrazka do załączników i treści posta
- @furious programming