Khác biệt giữa bản sửa đổi của “Định lý mã hóa trên kênh nhiễu”

Nội dung được xóa Nội dung được thêm vào
Cheers!-bot (thảo luận | đóng góp)
nKhông có tóm lược sửa đổi
n clean up, General fixes using AWB
Dòng 1:
{{chú thích trong bài}}
Trong [[Lý thuyết thông tin]], '''Định lý mã hóa trên kênh nhiễu''' (''[[tiếng Anh]]: noisy-channel coding theorem'') đề xuất rằng, cho dù một kênh truyền thông có bị ô nhiễm bởi nhiễu âm bao nhiêu đi chăng nữa, chúng ta cũng vẫn có thể truyền thông ([[thông tin]]) dữ liệu số (''digital data'') không lỗi (''error-free'') tới một tỷ lệ tối đa nhất định qua một kênh truyền. Kết quả đáng ngạc nhiên này, đôi khi được gọi là ''định lý nền tảng của lý thuyết thông tin'' (''fundamental theorem of information theory''), hay chỉ đơn giản là ''Định lý Shannon'', được giới thiệu lần đầu tiên bởi [[Claude Shannon]] vào năm [[1948]].
 
Hàng 33 ⟶ 34:
:2. Nếu giá trị sác xuất của sai số bit (''a probability of bit error'') ''p<sub>b</sub>'' là một giá trị có thể chấp nhận được, thì những tỷ lệ bao gồm cho đến ''R(p<sub>b</sub>)'' là những tỷ lệ có thể đạt được, trong đó:
 
::<math>R(p_b) = \frac{C}{1-H_2(p_b)} .</math>
 
:và <math> H_2(p_b)</math> là ''[[Hàm entrôpi nhị phân]]''
Hàng 71 ⟶ 72:
#Theo phong cách của đối số mã hóa ngẫu nhiên, chúng ta tùy tiện tạo nên <math> 2^{nR} </math> các mã tự (''codewords'') với chiều dài n sử dụng một phân bố sác xuất Q (''probability distribution Q'').
#Máy thu và máy nhận đều được cho biết mã số này là gì. Chúng ta cũng có thể cho rằng cả hai bên đều biết ma trận chuyển tiếp (''transition matrix'') <math>p(y|x)</math> mà kênh truyền thông sử dụng.
#Một thông điệp W được lựa chọn theo sự phân phối đồng dạng trên nhóm mã tự (''uniform distribution on the set of codewords''). Có nghĩa là: <math>Pr(W = w) = 2^{-nR}, w = 1, 2, ..., 2^{nR}</math>.
#Thông điệp W được truyền gửi qua kênh truyền.
#Máy nhận tiếp thu một chuỗi tín hiệu theo công thức <math>P(y^n|x^n(w))= \prod_{i = 1}^np(y_i|x_i(w))</math>
Hàng 87 ⟶ 88:
*Đồng thời, từ AEP chung (''joint AEP''), chúng ta biết sác xuất của một <math>X_1^{n(i)}</math> nào đấy và <math>Y_1^n</math>, kết quả từ việc W = 1 là tiêu biểu chung, có giá trị <math>\le 2^{-n(I(X;Y) - 3\epsilon)}</math>.
 
Định nghĩa: <math>E_i = \{(X_1^n(i), Y_1^n) \in A_\epsilon^{(n)}\}, i = 1, 2, ..., 2^{nR}</math>
 
theo sự kiện một thông điệp i là tiêu biểu chung với chuỗi tín hiệu nhận được khi thông điệp 1 được truyền gửi.