Z tą bitowością to jest tak jak mówicie, jednak poprawię tu PiotraQ. Bitowość nie jest zależna jak ułożone są dane w pamięci bo bajty zawsze leżą jeden za drugim (w systemach opartych na x86 jeden przed drugim

). Chodzi tu o sposób pracy na danych z pamięci. I tak bitowość komputera można rozróżnić ze względu na rodzaj jednostki CPU oraz system operacyjny (zauważcie jaka to bzdura ale wypadku M$ wszystko jest możliwe).
Z klasyfikacją CPU to różnie bywało. Istniały definicje że bitowość procesora jest zależna od szerokości szyny adresowej, szyny danych czy wielkości rejestrów. Oczywiście branie tu pod uwagę szerokość szyny adresowej może mieć znaczenie tylko pod względem marketingowym. Powinno się uważać że procesor X-bitowy to taki który posiada rejestry co najmniej X-bitowe potrafiąc wykonywać operacje na danych X-bitowych w jednym kroku (bez konwersji danych na poziomie mikrokodu etc).
Natomiast system operacyjny X-bitowy to taki który potrafi pracować z aplikacjami 32-bitowymi, wymieniać dane pomiędzy modułami systemu w arytmetyce 32-bitowej, oraz adresować pamięć o takiej wielkości (4GB).
Jak to się ma do rzeczywistości? Ano śmiesznie. O ile Win3 był całkowicie 16-bitowy o tyle Win95 i 98 uchodziły już za 32 bitowe. Co było bzdurą z kilku względów. Po pierwsze jądro systemu było 16 bitowe, po drugie większośc bibliotek systemowych była 16 bitowa. Co to oznaczało? Wiadomo. Oczywiście mniejszą wydajność. Jednakże systemy te umożliwiały urychamianie aplikacji 32-bitowych.
Natomiast Windows na jądrze NT jest wpełni 32 bitowy.
Aaa. No a teraz kwiatek który znalazłem przy okazji tego tematu na stronie Hogi. Normalnie ręce się pocą a scyzoryk otwiera jak się widzi taką ignorancję. A potem przeczyta to młodsze pokolenie i będą przeświadczeni że łyknęli wiedzy:
16 - bitowy - 16-bitowy to termin, oznaczający że coś może przesyłać w jednym momencie 16 bitów danych. Termin stosowany jest zazwyczaj w stosunku do aplikacji systemu MS-DOS lub aplikacji Windows 3.1 które pracują grupując jednorazowo szesnaście bitów danych. Aplikacje szesnastobitowe dzielą pojedynczą część pamięci operacyjnej mogą zatem pracować jedynie w pozornej wielozadaniowości.
a pewnie w innych systemach to aplikacje nie używają wspólnej pamięci. Chyba komuś coś dzwoniło o ochronie pamięci, ale jaki to ma związek z bitowością systemu... ??
32-bitowy - 32-bitowy to termin, oznaczający że coś może przesyłać w jednym momencie 32 bity danych. Termin ten stosowany jest zazwyczaj w stosunku do aplikacji Windows 95/NT które pracują grupując jednorazowo trzydzieści dwa bity danych. Dzięki temu możliwa jest lepsza organizacja pamięci operacyjnej. Aplikacje trzydziestodwubitowe mogą pracować w trybie prawdziwej wielozadaniowości.
a co to jest prawdziwa wielozadaniowość? hehe

, nigdy nie sądziłem że wielozadaniowośc jest zależna od bitowości systemu tym bardziej że np. Amiga była maszyną 16 bitową a miała multitasking, z wydziedziczaniem.
No ale jeszcze parę kwiatków z tej strony
Binaria - pliki binarne (ang. Binary file) to określenie plików z danymi zapisanymi w formie 8-bitowych sekwencji (np. grafiki lub pliki dźwiękowe) lub jako wykonywalnych kodów o rozszerzeniu EXE zrozumiałych najczęściej jedynie dla komputera.
AIFF - AIFF to ośmio bitowy format monofonicznego pliku dźwiękowego opracowanego przez firmę Apple Computers i służący do cyfrowego zapisu dźwięku WAV.
To ciekawe bo AIFF to format obsługujący też a może nawet przede wszystkim 16 bitowy dźwięk.
No to tyle...
_________________
VH6, CelII533@800, 256MB, ATI Radeon7500, SB Live 1024 Player, Guillemot Force Feedback Wheel
[ Ta wiadomość została zmieniona przez: MaXyM dnia 2002-04-08 08:13 ]