Giáo trình Lý thuyết thông tin - Dương Văn Hiếu

pdf 137 trang cucquyet12 5060
Bạn đang xem 20 trang mẫu của tài liệu "Giáo trình Lý thuyết thông tin - Dương Văn Hiếu", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên

Tài liệu đính kèm:

  • pdfgiao_trinh_ly_thuyet_thong_tin_duong_van_hieu.pdf

Nội dung text: Giáo trình Lý thuyết thông tin - Dương Văn Hiếu

  1. giáo trình lý thuyết thông tin Biên tập bởi: duongvanhieu
  2. giáo trình lý thuyết thông tin Biên tập bởi: duongvanhieu Các tác giả: phantantai lequyetthang duongvanhieu Phiên bản trực tuyến:
  3. MỤC LỤC 1. giới thiệu tổng quan giáo trình lý thuyết thông tin 2. yêu cầu 3. nội dung cốt lõi 4. kiến thức tiên quyết 5. phương pháp học tập 6. giới thiệu 7. mô hình lý thuyết thông tin theo quan điểm Shannon 8. định lý cơ sở của kĩ thuật truyền tin 9. khái niệm về dung lượng kênh truyền 10. độ đo lượng tin 11. các tính chất của entropy 12. entropy của nhiều biến 13. minh họa các entropy 14. ĐO LƯỢNG TIN (MESURE OF INFORMATION) 15. SINH MÃ TÁCH ĐƯỢC (Decypherable Coding) 16. quan hệ giữa mã tách được và độ dài mã 17. tính tối ưu của độ dài mã 18. kênh truyền rời rạc không nhớ 19. các dạng kênh truyền 20. lược đồ giải mã 21. nguyên lý khoảng cách nhỏ nhất hamming 22. Bổ đề về tự sửa lỗi và cận hamming 23. mã kiểm tra chẵn lẻ 24. nhóm cộng tính và bộ từ mã chẵn lẻ 25. lược đồ sửa lỗi tối ưu 26. mã hamming 27. thanh ghi lùi tưng bước 28. mã xoay vòng 29. đa thức đặc trưng của thanh ghi 30. phương pháp sinh mã xoay vòng 31. bài tập tổng hợp Tham gia đóng góp 1/135
  4. giới thiệu tổng quan giáo trình lý thuyết thông tin GIỚI THIỆU TỔNG QUAN GIÁO TRÌNH LÝ THUYẾT THÔNG TIN MỤC ĐÍCH Giáo trình này sẽ cung cấp cho người đọc những khối kiến thức cơ bản của lý thuyết thông tin như: Độ do lượng tin (Measure of Information), Sinh mã tách được (Decypherable Coding), Kênh truyền tin rời rạc không nhớ (Discrete Memoryless Channel) và Sửa lỗi trên kênh truyền (Error Correcting Codings). Liên quan đến Độ đo lượng tin, giáo trình sẽ trình bày các khái niệm cơ bản về thông tin, entropy, một số công thức, tính chất, các định lý quan trọng của entropy và cách tính lượng tin. Về Sinh mã tách được, giáo trình sẽ giới thiệu đến người học các vấn đề về yêu cầu của bài toán sinh mã, giải mã duy nhất, cũng như mã tức thời và giải thuật kiểm tra mã tách được. Các định lý quan trọng được đề cập trong nội dung này là: Định lý Kraft (1949), Định lý Shannon (1948) và Định lý sinh mã Huffman. Về kênh truyền tin rời rạc không nhớ, giáo trình sẽ giới thiệu mô hình kênh truyền theo 2 khía cạnh vật lý và toán học. Các khái niệm về dung lượng kênh truyền, phân lớp kênh truyền, định lý về dung lượng kênh truyền, cũng như các khái niệm trong kỹ thuật truyền tin và phương pháp xây dựng lược đồ giải mã tối ưu cũng được trình bày trong môn học này. Vấn đề Sửa lỗi (hay xử lý mã sai) trên kênh truyền là một vấn đề rất quan trọng và được quan tâm nhiều trong môn học này. Các nội dung được giới thiệu đến các bạn sẽ là Nguyên lý Khoảng cách Hamming, các định lý về Cận Hamming, phương pháp kiểm tra chẵn lẻ, các lược đồ sửa lỗi, Bảng mã Hamming và Bảng mã xoay vòng. Hơn nữa, hầu hết các vấn đề nêu trên đều được đưa vào nội dung giảng dạy ở các bậc Đại học của một số ngành trong đó có ngành Công nghệ thông tin. Do đó, để có một tài liệu phục vụ công tác giảng dạy của giáo viên cũng như việc học tập và nghiên cứu của sinh viên, chúng tôi mạnh dạn biên soạn giáo trình này nhằm giúp cho sinh viên có một tài liệu tự học và nghiên cứu một cách hiệu quả. 2/135
  5. yêu cầu YÊU CẦU Sau khi học xong môn này, sinh viên phải có được những khả năng sau: Hiểu các khái niệm về về thông tin, Entropy, Entropy của một phân phối, Entropy của nhiều phân phối, Entropy có điều kiện, Độ đo lượng tin. Vận dụng giải quyết các bài toán về xác định lượng tin. Biết khái niệm về mã tách được, mã không tách được, bảng mã tối ưu. Hiểu Định lý Kraft (1949), Định lý Shannon (1948), Định lý sinh mã Huffman và phương pháp sinh mã Huffman. Vận dụng để sinh bảng mã tách được tối ưu, nhận biết được bảng mã như thế nào là bảng mã tối ưu và có thể vận dụng để viết các chương trình sinh mã, giải mã (hay viết chương trình nén và giải nén). Từ đây, các sinh viên có thể tự nghiên cứu các loại bảng mã khác để vận dụng cho việc mã hóa và bảo mật thông tin một cách hiệu quả. Biết các khái niệm về kênh truyền tin rời rạc không nhớ, dung lượng kênh truyền và phân lớp kênh truyền. Hiểu định lý về dung lượng kênh truyền, phương pháp xây dựng lược đồ giải mã tối ưu và cách tính xác suất truyền sai trên kênh truyền. Biết các khái niệm về khoảng cách Hamming, nguyên lý khoảng cách Hamming, các định lý về Cận Hamming, phương pháp kiểm tra chẵn lẻ, các lược đồ sửa lỗi, Bảng mã Hamming và Bảng mã xoay vòng. Vận dụng các kiến thức học được để thiết kế một hệ thống truyền nhận dữ liệu với quy trình cơ bản: mã hóa, giải mã và bảo mật thông tin. Lý thuyết thông tin cũng là một trong các môn học khó của ngành Công nghệ thông tin vì nó đòi hỏi người học phải có kiến thức cơ bản về toán và xác suất thống kê. Do đó, đòi hỏi người học phải tự bổ sung các kiến thức cơ bản về toán và xác suất thống kê cho mình (nếu thiếu), tham gia lớp học đầy đủ và làm các bài tập theo yêu cầu của môn học thì mới tiếp thu kiến thức môn học một cách hiệu quả. 3/135
  6. nội dung cốt lõi NỘI DUNG CỐT LÕI Giáo trình gồm 5 chương được trình bày trong 45 tiết giảng cho sinh viên chuyên ngành Công nghệ thông tin, trong đó có khoảng 30 tiết lý thuyết và 15 tiết bài tập mà giáo viên sẽ hướng dẫn cho sinh viên trên lớp. Chương 1: Giới thiệu. Chương này trình bày các nội dung có tính tổng quan về môn học bao gồm: các đối tượng nghiên cứu, mô hình lý thuyết thông tin theo quan điểm của nhà toán học Shannon, khái niệm về lượng tin biết và chưa biết, định lý cơ bản của kỹ thuật truyền tin. Chương 2: Độ đo lượng tin. Chương này trình bày các vấn đề cơ bản về entropy, các tính chất của entropy, entropy của nhiều biến, entropy có điều kiện, các định lý về quan hệ giữa các entropy và lượng tin của một sự kiện. Chương 3: Sinh mã tách được. Nội dung chính của chương này bao gồm các khái niệm về mã tách được, quan hệ giữa mã tách được và độ dài mã, tính tối ưu của độ dài mã. Chương 4: Kênh truyền. Các nội dung được trình bày trong chương này bao gồm khái niệm về kênh truyền tin rời rạc không nhớ, các mô hình truyền tin ở khía cạnh vật lý và toán học, dung lượng trên kênh truyền, phân lớp các kênh truyền. Phương pháp xây dựng lược đồ giải mã tối ưu và cách tính xác suất truyền sai cũng được giới thiệu trong chương này. Chương 5: Sửa lỗi. Chương này trình bày các nội dung cốt lõi sau: khái niệm về khoảng cách Hamming, nguyên lý khoảng cách nhỏ nhất Hamming, bổ đề về tự sửa lỗi và định lý Cận Hamming. Chương này cũng giới thiệu về bộ mã kiểm tra chẵn lẻ, phương pháp kiểm tra chẵn lẻ, lược đồ sửa lỗi tối ưu, mã Hamming và mã xoay vòng. 4/135
  7. kiến thức tiên quyết KIẾN THỨC TIÊN QUYẾT Để học tốt môn học này, đòi hỏi sinh viên phải nắm vững các môn học có liên quan như: xác suất thống kê, đại số boole (phép toán Modulo 2 và đa thức nhị phân). Các môn học có liên quan và có thể tham kháo thêm như kỷ thuật số, hệ điều hành, mạng máy tính. TÀI LIỆU THAM KHẢO David J.C. Mackey, Information Theory, Infernce, and Learning Algorithms, CamBridge University Express-2003. G.J.ChaiTin, Algorithmic Information Theory, CamBridge University Express-1992. Sanford Goldman, Information Theory. 5/135
  8. phương pháp học tập PHƯƠNG PHÁP HỌC TẬP Để phục vụ cho mục tiêu nâng cao khả năng tự học tập và tự nghiên cứu của sinh viên, giáo trình này được biên soạn cùng với các giáo trình khác thuộc chuyên ngành Công nghệ thông tin của Khoa Công nghệ thông tin và Truyền thông – Đại Học Cần Thơ theo dự án ASVIET002CNTT “Tăng cường hiệu quả đào tạo và năng lực đào tạo của sinh viên khoa Công nghệ Thông tin-Đại học Cần Thơ”. Chúng tôi đã cố gắng trình bày giáo trình này một cách có hệ thống các nội dung theo bố cục các chương ứng với các khối kiến thức nêu trên, mỗi chương được được trình bày theo bố cục của các bài học và mỗi bài học giới thiệu đến người học một vấn đề nào đó trong số các vấn đề của một khối kiến thức tương ứng với một chương. Khi học xong các bài học của một chương, người học sẽ có một khối kiến thức cần thiết tương ứng cho môn học. Nội dung của các bài học đều được đưa vào các ví dụ để người học dễ hiểu, tùy theo từng vấn đề mà người học cần phải học và nghiên cứu trong thời lượng từ 1 đến 2 tiết tự học cho một bài học trong một chương. Như vậy, để học tốt môn học này, trước hết sinh viên cần phải: Học đầy đủ các môn học tiên quyết, bổ sung những kiến thức cơ bản về toán và xác suất thống kê (nếu thiếu). Học và nghiên cứu kỹ từng chương theo trình tự các chương được trình bày trong giáo trình này. Trong từng chương, học các bài theo thứ tự được trình bày, sau mỗi bài phải làm bài tập đầy đủ (nếu có). Tham gia lớp đầy đủ, thảo luận các vấn đề tồn tại chưa hiểu trong quá trình tự học. Sau mỗi chương học, phải nắm vững các khái niệm, các định nghĩa, các công thức tính toán và vận dụng giải các bài toán có tính chất tổng hợp được giới thiệu ở cuối chương. Vận dụng kiến thức có được sau khi học xong các chương để giải một số bài tập tổng hợp ở cuối giáo trình, từ đó giúp cho người học hiểu sâu hơn về môn học và có thể giải quyết các vấn đề tương tự trong thực tế. Việc cho ra đời một giáo trình với những mục đích như trên là không đơn giản khi khả năng và kinh nghiệm của người soạn còn có hạn, nhiều khái niệm, thuật ngữ dùng trong giáo trình chưa được định nghĩa một cách chính thống. Vì vậy giáo trình này chắc không tránh khỏi những khiếm khuyết, rất mong nhận được sự góp ý của các đồng nghiệp và người đọc. 6/135
  9. giới thiệu GIỚI THIỆU Mục tiêu Sau khi hoàn tất bài học này bạn có thể biết: Đối tượng nghiên cứu, Mô hình lý thuyết thông tin theo quan điểm Shannon, Các khái niệm về Lượng tin biết và lượng tin chưa biết, Định lý cơ sở của kỹ thuật truyền tin, Khái niệm chung về dung lượng kênh truyền, Vấn đề sinh mã và giải mã. Đối tượng nghiên cứu Lý thuyết thống kê về thông tin được xây dựng trên hai hướng khác nhau bởi hai nhà toán học Shannon (1948) và Wiener (1949). Lý thuyết thông tin nghiên cứu quá trình xử lý tín hiệu như sau: Đầu vào (input): nhận tín hiệu từ một lĩnh vực cụ thể, tức là tín hiệu xuất hiện theo các ký hiệu (symbol) từ một tập hợp cho trước và theo phân phối xác suất đã biết. Tín hiệu được truyền đi trên kênh truyền (channel) và có thể bị nhiễu cũng theo một phân phối xác suất nào đó. Kênh truyền có thể được hiểu dưới hai nghĩa: Dưới nghĩa vật lý: kênh truyền là một hệ thống truyền tín hiệu (dây dẫn, mạch, sóng, ) và gây nhiễu tùy thao chất lượng của hệ thống. Dưới nghĩa toán học: kênh truyền là các phân phối xác suất xác định trên lớp các tín hiệu đang xét ở đầu nhận tín hiệu (output). Ở đầu ra (output): dựng lại tín hiệu chân thật nhất có thể có so với tín hiệu ở đầu vào. Shannon xây dựng mô hình lý thuyết thông tin trên cơ sở giải quyết bài toán: sinh mã độ dài tối ưu khi nhận tín hiệu đầu vào. Tín tối ưu được xét trên 3 yếu tố sau: 7/135
  10. Phân phối xác suất của sự xuất hiện của các tín hiệu. Tính duy nhất của mã và cho phép tự điều chỉnh mã sai nếu có với độ chính xác cao nhất. Giải mã đồng thời tự động điều chỉnh mã hoặc xác định đoạn mã truyền sai. Trong khí đó, Wiener lại nghiên cứu phương pháp xử lý tín hiệu ở đầu ra: ước lượng tối ưu chuỗi tín hiệu so với chính nó khi nhận ở đầu vào không qua quá trình sinh mã. Như vậy phương pháp Wiener được áp dụng trong những trường hợp con người không kiểm soát được quá trình truyền tín hiệu. Môn “xử lý tín hiệu” đã đề cập đến vấn đề này. 8/135
  11. mô hình lý thuyết thông tin theo quan điểm Shannon Mô hình lý thuyết thông tin theo quan điểm Shannon Lý thuyết thông tin được xét ở đây theo quan điểm của Shannon. Đối tượng nghiên cứu là một hệ thống liên lạc truyền tin (communication system) như sơ đồ dưới đây: Diễn giải: • Nguồn (source) thông tin còn gọi là thông báo cần được truyền ở đầu vào (Input). • Mã hóa (encode) là bộ sinh mã. Ứng với một thông báo, bộ sinh mã sẽ gán cho một đối tượng (object) phù hợp với kỹ thuật truyền tin. Đối tượng có thể là: Dãy số nghị phân (Digital) dạng: 01010101, cũng giống như mã máy tính. Sóng liên tục (Analog) cũng giống như truyền radio. • Kênh (channel) là phương tiện truyền mã của thông tin. • Nhiễu (noise) được sinh ra do kênh truyền tin. Tùy vào chất lượng của kênh truyền mà nhiễu nhiều hay ít. • Giải mã (decode) ở đầu ra (output) đưa dãy mã trở về dạng thông báo ban đầu với xác suất cao nhất. Sau đó thông báo sẽ được chuyển cho nới nhận. Trong sơ đồ trên, chúng ta quan tâm đến 2 khối mã hóa và giải mã trong toàn bộ môn học. Lượng tin biết và chưa biết Một biến ngẫu nhiên (BNN) X luôn mang một lượng tin nào đó. Nếu X chưa xảy ra (hay ta chưa biết cụ thể thông tin về X) thì lượng tin của nó là chưa biết, trong trường hợp này X có một lượng tin chưa biết. Ngược lại nếu X đã xảy ra (hay ta biết cụ thể thông 9/135
  12. tin về X) thì lượng tin về biến ngẫu nhiên X coi như đã biết hoàn toàn, trong trường hợp này X có một lượng tin đã biết. Nếu biết thông tin của một BNN X thông qua BNN Y đã xảy ra thì ta có thể nói: chúng ta chỉ biết một phần lượng thông tin của X đó trên cơ sở biết Y. Ví dụ về lượng tin biết và chưa biết Ta xét ví dụ về một người tổ chức trò chơi may rủi khách quan với việc tung một đồng tiền “có đầu hình – không có đầu hình”. Nếu người chơi chọn mặt không có đầu hình thì thắng khi kết quả tung đồng tiền là không có đầu hình, nguợc lại thì thua. Tuy nhiên người tổ chức chơi có thể “ăn gian” bằng cách sử dụng 2 đồng tiền “Thật- Giả” khác nhau sau: + Đồng tiền loại 1 (hay đồng tiền thật): đồng chất có 1 mặt có đầu hình. + Đồng tiền loại 2 (hay đồng tiền giả ): đồng chất, mỗi mặt đều có 1 đầu hình. Mặc dù người tổ chức chơi có thể “ăn gian” nhưng quá trình trao đổi 2 đồng tiền cho nhau là ngẫu nhiêu, vậy liệu người tổ chức chơi có thể “ăn gian” hoàn toàn được không? Hay lượng tin biết và chưa biết của sự kiện lấy một đồng tiền từ 2 đồng tiền nói trên được hiểu như thế nào? Ta thử xét một trường hợp sau: nếu người chơi lấy ngẫu nhiên 1 đồng tiền và sau đó thực hiện việc tung đồng tiền lấy được 2 lần. Qua 2 lần tung đồng tiền, ta đếm được số đầu hình xuất hiện. Dựa vào số đầu hình xuất hiện, ta có thể phán đoán được người tổ chức chơi đã lấy được đồng tiền nào. Chẳng hạn: Nếu số đầu hình đếm được sau 2 lần tưng là 1 thì đồng tiền đã lấy được là đồng tiền thật. Ngược lại nếu số đầu hình đếm được là 2 thì đồng tiền đã lấy được có thể là thật hay cũng có thể là giả. Như vậy, ta đã nhận được một phần thông tin về loại đồng tiền qua số đầu hình đếm được sau 2 lần tung. Ta có thể tính được lượng tin đó bằng bao nhiêu? (Việc tính lượng tin này sẽ được thảo luận sau). Dưới đây là một số bảng phân phối của bài toán trên: Gọi BNN X về loại đồng tiền (X=1 nếu lấy được đồng tiền loại 1 và X=1 nếu lấy được đồng tiền loại 2 được lấy). Khi đó phân phối của X có dạng: 10/135
  13. Đặt BNN Y là BNN về số đầu hình đếm được sau 2 lần tung. Khi đó ta có thể xác định được phân phối của Y với điều kiện xảy ra của X trong 2 trường hợp sau. Phân phối của Y khi biết X=1 có dạng: Phân phối của Y khi biết X=2 có dạng: 11/135
  14. định lý cơ sở của kĩ thuật truyền tin Định lý cơ sở của kỹ thuật truyền tin Trong” New Basic of Information Theory (1954)” Feinstein đã đưa ra định lý sau:”rên một kênh truyền có nhiễu, người ta luôn có thể thực hiện một phương pháp truyền sao cho đạt được sai số nhỏ hơn sai số cho phép (nhỏ bất kỳ) cho trước đối với kênh truyền.” Chúng ta sẽ không chứng minh định lý, thay vào đó, chúng ta sẽ tham khảo đến các minh họa giảm nhiễu trong các nội dung tiếp theo của bài học. Mô tả trạng thái truyền tin có nhiễu Giả sử, một thông báo được truyền đi trên một kênh truyền nhị phân rời rạc. Thông báo cần truyền được mã hóa thành dãy số nhị phân (0,1) và có độ dài được tính theo đơn vị bit. Giả sử 1 bit truyền trên kênh nhiễu với xác suất 1/4 (hay tính trung bình cứ truyền 4 bit thì có thể nhiễu 1 bit). Ta có sơ đồ trạng thái truyền tin sau: Minh họa kỹ thuật giảm nhiễu Trong kỹ thuật truyền tin, người ta có thể làm giảm sai lầm khi nhận tin bằng cách truyền lặp lại 1 bit với số lẻ lần. Ví dụ: truyền lặp lại 3 cho 1 bit cần truyền (xác suất nhiễu 1 bit bằng 1/4). Khi nhận 3 bit liền nhau ở cuối kếnh được xem như là 1 bit. Giá trị của bit này được hiểu là 0 (hay 1) nếu bit 0 (bit 1) có số lần xuất hiện nhiều hơn trong dãy 3 bit nhận được liền nhau (hay giải mã theo nguyên tắc đa số). Ta cần chứng minh với phương pháp truyền này thì xác suất truyền sai thật sự < 1/4 (xác suất nhiễu cho trước của kênh truyền). Sơ đồ truyền tin: 12/135
  15. Thật vậy: Giả sử Xi xác định giá trị đúng hay sai của bit thứ i nhận được ở cuối kênh truyền với Xi =1 nếu bit thứ i nhận được là sai và Xi =0 nếu bit thứ i nhận được là đúng. Theo giả thiết ban đầu của kênh truyền thì phân phối xác suất của Xi có dạng Bernoulli b(1/4): Gọi Y ={X1 + X2 + X3 } là tổng số bit nhận sai sau 3 lần truyền lặp cho 1 bit. Trong trường hợp này Y tuân theo phân phối Nhị thức B(p,n), với p=1/4 (xác suất truyền sai một bit) và q =3/4 (xác suất truyền đúng 1 bit): Y ~ B(i,n) hay Trong đó: Vậy truyền sai khi Y thuộc {2, 3} có xác xuất là: 13/135
  16. Hay (đpcm). Chi phí phải trả cho kỹ thuật giảm nhiễu Theo cách thức lặp lại như trên, ta có thể giảm sai lầm bao nhiêu cũng được (lặp càng nhiều thì sai càng ít), nhưng thời gian truyền cũng tăng lên và chi phí truyền cũng sẽ tăng theo. Hay ta có thể hiểu như sau: Lặp càng nhiều lần 1 bit=>thời gian truyền càng nhiều=>chi phí càng tăng. 14/135
  17. khái niệm về dung lượng kênh truyền Khái niệm về dung lượng kênh truyền Ví dụ trên cho chúng ta thấy cần phải xác định một thông số cho truyền tin để đảm bảo sai số chấp nhận được và đồng thời tốc độ truyền cũng không quá chậm. Khái niệm “dung lượng” kênh truyền là khái niệm rất cơ bản của lý thuyết truyền tin và là một đại lượng vật lý đồng thời cũng là đại lượng toán học (có đơn vị là bit). Nó cho phép xác định tốc độ truyền tối đa của mỗi kênh truyền. Do đó, dựa vào dung lượng kênh truyền, người ta có thể chỉ ra tốc độ truyền tin đồng thời với một phương pháp truyền có sai số cho phép. Vấn đề sinh mã Từ kỹ thuật truyền tin trên cho ta thấy quá trình sinh mã và giải mã được mô tả như sau: một đơn vị thông tin nhận được ở đầu vào sẽ được gán cho một ký hiệu trong bộ ký hiệu sinh mã. Một ký hiệu mã được gán n lần lặp lại (dựa vào dung lượng của kênh truyền, ta có thể xác định được n). Thiết bị sinh mã (Coding device/ Encoder) sẽ thực hiện quá trình sinh mã. Như vậy, một đơn vị thông tin từ nguồn phát tin sẽ được thiết bị sinh mã gán cho một dãy n ký hiệu mã. Dãy ký hiệu mã của 1 đơn vị thông tin được gọi là một từ mã (Code word). Trong trường hợp tổng quát, người ta có thể gán một khối ký tự mã cho một khối thông tin nào đó và được gọi là một từ mã. Vấn đề giải mã Ở cuối kênh truyền, một thiết bị giải mã (Decoding device/ Decoder) sẽ thực hiện quá trình ngược lại như sau: kiểm tra dãy ký hiệu mã để quyết định giải mã về một từ mã và đưa nó về dạng khối tin ban đầu. Ví dụ: Khối tin ban đầu : 01010101 Khối ký hiệu mã ở đầu truyền (lặp 3 lần): 000111000111000111000111. Khối ký hiệu mã ở đầu nhận : 001110100111011001000111 Khối tin nhận được cuối cùng : 01011001 (sai 2 bit so với khối tin ban đầu) 15/135
  18. Do đó làm sao để đua khối tin nhận được về khối tin ban đầu 01010101, đây chính là công việc của bộ giải mã (Decoder). Một vấn đề quan trọng cần lưu ý là phải đồng bộ giữa tốc độ nạp thông tin (phát tín hiệu) với tốc độ truyền tin. Nếu tốc độ nạp thông tin bằng hoặc lớn hơn so với tốc độ truyền tin của kênh, thì cần phải giảm tốc độ nạp thông tin sao cho nhỏ hơn tốc độ truyền tin. 16/135
  19. độ đo lượng tin ĐỘ ĐO LƯỢNG TIN Mục tiêu: trình bày các khái niệm về độ đo lượng tin chưa biết và đã biết về một biến ngẫu nhiên X. Tính toán các lượng tin này thông qua định nghĩa và các tính chất của Entropy từ một hay nhiều biến ngẫu nhiên. ENTROPY Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Hiểu được các khái niệm Entropy, • Biết Entropy của một sự kiện và Entropy của một phân phối, • Hiểu Định lý dạng giải tích của Entropy, • Biết Bài toán về cây tìm kiếm nhị phân và • Làm kiến thức cơ sở để hiểu và học tốt các bài học tiếp theo. Ví dụ về entropy Trước hết, ta cần tìm hiểu một ví dụ về khái niệm độ do của một lượng tin dựa vào các sự kiện hay các phân phối xác suất ngẫu nhiên như sau: Xét 2 BNN X và Y có phân phối sau: X={1, 2, 3, 4, 5} có phân phối đều hay p(X=i) = 1/5. Y={1, 2} cũng có phân phối đều hay p(Y=i) = 1/2. Bản thân X và Y đều mang một lượng tin và thông tin về X và Y chưa biết do chúng là ngẫu nhiên. Do đó, X hay Y đều có một lượng tin không chắc chắn và lượng tin chắc chắn, tổng của 2 lượng tin này là không đổi và thực tế nó bằng bao nhiêu thì ta chưa thể biết. Lượng tin không chắc chắn của X (hay Y) được gọi là Entropy. Tuy nhiên, nếu X và Y có tương quan nhau thì X cũng có một phần lượng tin không chắc chắn thông qua lượng tin đã biết của Y (hay thông tin về Y đã được biết). Trong trường hợp này, một phần lượng tin không chắc chắn của thông qua lượng tin đã biết của Y được gọi là Entropy có điều kiện. Nhận xét về độ đo lượng tin 17/135
  20. Rõ ràng, ta cần phải xây dựng một đại lượng toán học rất cụ thể để có thể đo được lượng tin chưa biết từ một biến ngẫu nhiên. Một cách trực quan, lượng tin đó phải thể hiện được các vấn đề sau: Một sự kiện có xác suất càng nhỏ thì sự kiện đó ít xảy ra, cũng có nghĩa là tính không chắc chắn càng lớn. Nếu đo lượng tin của nó thì nó cho một lượng tin không biết càng lớn. Một tập hợp các sự kiện ngẫu nhiên (hay Biến ngẫu nhiên) càng nhiều sự kiện có phân phối càng đều thì tính không chắc chắn càng lớn. Nếu đo lượng tin của nó thì sẽ được lượng tin không biết càng lớn. Hay lượng tin chắc chắn càng nhỏ. Một phân phối xác suất càng lệch nhiều (có xác xuất rất nhỏ và rất lớn) thì tính không chắc chắn càng ít và do đó sẽ có một lượng tin chưa biết càng nhỏ so với phân phối xác suất đều hay lượng tin chắc chắn của nó càng cao. Khái niệm entropy Trong tiếng việt ta chưa có từ tương đương với từ Entropy, tuy nhiên chúng ta có thể tạm hiểu hiểu thoáng qua trước khi đi vào định nghĩa chặc chẽ về mặt toán học của Entropy như sau: Entropy là một đại lượng toán học dùng để đo lượng tin không chắc (hay lượng ngẫu nhiên) của một sự kiện hay của phân phối ngẫu nhiên cho trước. Hay một số tài liệu tiếng anh gọi là Uncertainty Measure. Entropy của một sự kiện Giả sử có một sự kiện A có xác suất xuất hiện là p. Khi đó, ta nói A có một lượng không chắc chắn được đo bởi hàm số h(p) với p [0,1]. Hàm h(p) được gọi là Entropy nếu nó thoả 2 tiêu đề toán học sau: Tiên đề 01: h(p) là hàm liên tục không âm và đơn điệu giảm. Tiên đề 02: nếu A và B là hai sự kiện độc lập nhau, có xác suất xuất hiện lần lượt là pA và pB. Khi đó, p(A,B) = pA.pB nhưng h(A,B) = h(pA) + h(pB). Entropy của một phân phối Xét biến ngẫu nhiên X có phân phối: 18/135
  21. Nếu gọi Ai là sự kiện X=xi, (i=1,2,3, ) thì Entropy của Ai là: h(Ai)= h(pi) Gọi Y=h(X) là hàm ngẫu nhiên của X và nhận các giá trị là dãy các Entropy của các sự kiện X=xi, tức là Y=h(X)={h(p1), h(p2), , h(pn)}. Vậy, Entropy của X chính là kỳ vọng toán học của Y=h(X) có dạng: H(X)=H(p1, p2, p3, ,pn) = p1h(p1)+ p2h(p2)+ +pnh(pn). Tổng quát: Định lý dạng giải tích của Entropy Định lý: Hàm H(X) = H(p1, p2, ,pM) C = const >0 Cơ số logarithm là bất kỳ. Bổ đề: h(p)=-Clog(p). Trường hợp C=1 và cơ số logarithm = 2 thì đơn vị tính là bit. Khi đó: h(p)=-log2(p) (đvt: bit) và Qui ước trong cách viết: log(pi)= log2(pi) Ví dụ minh họa Nếu sự kiện A có xác suất xuất hiện là 1/2 thì h(A)=h(1/2)= -log(1/2) = 1 (bit) 19/135
  22. Xét BNN X có phân phối sau: H(X) = H(1/2, 1/4, 1/4) = -(1/2log(1/2)+1/4log(1/4)+1/4log(1/4)) =3/2 (bit) Bài toán về cây tìm kiếm nhị phân-Đặt vấn đề Giả sử, tìm 1 trong 5 người có tên biết trước sẽ xuất hiện theo phân phối sau: Trong đó: x1, x5 lần lượt là tên của 5 người mà ta cần nhận ra với cách xác định tên bằng câu hỏi đúng sai (yes/no). Sơ đồ dưới đây minh họa cách xác định tên của một người: Bài toán về cây tìm kiếm nhị phân - Diễn giải Theo sơ đồ trên: Để tìm x1, x2, x3 vớixác suất tương ứng l 0.2, 0.3, 0.2 ta chỉ cần tốn 2 câu hỏi. 20/135
  23. Để tìm x4, x5 với xác suất tương ứng 0.15, 0.15 thì ta cần 3 câu hỏi. Vậy: Số câu hỏi trung bình là: 2 x (0,2+0,3+0,2) + 3 x (0,15+0,15) = 2.3 Mặt khác: Entropy của X: H(X)= H(0.2, 0.3, 0.2, 0.15, 0.15)=2.27. Ta luôn có số câu hỏi trung bình luôn ≥ H(X) (theo định lý Shannon sẽ trình bày sau). Vì số câu hỏi trung bình trong trường hợp này xấp sỉ H(X) nên đây là số câu hỏi trung bình tối ưu để tìm ra tên chính xác của một người. Do đó, sơ đồ tìm kiếm trên là sơ đồ tối ưu. Sinh viên tự cho thêm 1 hay 2 sơ đồ tìm kiếm khác và tự diễn giải tương tự - xem như bài tập. Bài tập Tính H(X) với phân phối sau: Tính H(Y) với phân phối sau: 21/135
  24. các tính chất của entropy CÁC TÍNH CHẤT CỦA ENTROPY Mục tiêu: Sau khi hoàn tất bài học này bạn có thể: Hiểu các tính chất cơ bản của Entropy, Hiểu định lý cực đại của Entropy, Vận dụng giải một số bài toán về Entropy, Làm cơ sở để vận dụng giải quyết các bài toán tính dung lượng kênh truyền. Các tính chất cơ bản của Entropy Xét biến ngẫu nhiên X = {x1, x2, , xM}. Entropy của biến ngẫu nhiên X có các tính chất: Hàm số f(M) = H(1/M,1/Mn điệu tăng. Hàm số f(ML) = f(M)+f(L). H(p1, p2, , pM) = H(p1 + p2 + +pr, pr+1+ pr+2+ + pM) H(p, 1-p) là hàm liên tục theo P. Minh họa tính chất 1 và 2 Minh họa tính chất 1: Trong trường hợp biến ngẫu nhiên X có phân phối đều Entropy của X như sau : 22/135
  25. => H(X) là hàm đơn điệu tăng Minh họa tính chất 2: Trong trường hợp 2 biến ngẫu nhiên X, Y độc lập có phân phối đều với BNN X có M sự kiện và BNN Y có L sự kiện. Gọi f(M), f(L) lần lượt là Entropy của X, của Y. Theo tính chất 2 của Entropy ta có f(ML)=f(M)+f(L) Minh họa tính chất 3 và 4 Minh họa tính chất 3: Xét con xúc sắc có 6 mặt với xác suất xuất hiện các mặt được cho trong bảng sau: Ta có thể gom các sự kiện x1, x2, x3 lại thành một sự kiện mới là x123 có xác suất xuất hiện là 55%, gom sự kiện x5 và x6 lại thành sự kiện x56 có xác suất 20%. Ta được một nhiến ngẫu nhiên mới X* có phân phối sau: Đến đây các bạn có thể áp dụng công thức để tính, so sánh các Entropy và nhận xét tính chất 3. Phần này xem như bài tập cho sinh viên. Minh họa tính chất 4: Để hiểu tính chất thứ 4, ta xét dạng đồ thị của hàm số H(p, 1-p ): 23/135
  26. Rõ ràng H(p, 1-p) là một hàm liên tục theo p. Định lý cực đại của entropy Định lý: H(p1, p2, ,pM)≤ log(M) Trong đó: đẳng thức xảy ra khi và chỉ khi p1= = pM= 1/M Bổ đề:cho 2 bộ {p1, p2, ,pM} và {q1, q2, ,qM} là các bộ số dương bất kỳ và Khi đó, ta có H(p1, p2, ,pM)= (*) Đẳng thức xảy ra khi pi=qi với ∀i=1, ,M. Bài tập Bài 1: Cho 2 biến ngẫu nhiên X, Y độc lập nhau có phân phối sau: Tính H(X), H(Y). Kiểm tra lại kết quả của của bài 1 bằng tính chất 2. 24/135
  27. Cho biến ngẫu nhiên X có phân phối sau: Ta có thể gom các sự kiện x1, x2, x3 lại thành một sự kiện mới là x123 có xác suất xuất hiện là 55%, gom sự kiện x5 và x6 lại thành sự kiện x56 có xác suất 20%. Ta được một nhiến ngẫu nhiên mới X* có phân phối sau: - Tính entropy của X, X* và kiểm tra lại tính chất 3. - Kiểm tra lại định lý cực đại từ dữ liệu cho trên. 25/135
  28. entropy của nhiều biến ENTROPY CỦA NHIỀU BIẾN Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Hiểu biết các định nghĩa Entropy của nhiều biến và Entropy có điều kiện, • Hiểu mối quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y độc lập, • Hiểu mối quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y tương quan, • Vận dụng mối quan hệ gữa các Entropy để tính các Entropy một cách hiệu quả, • Vận dụng Entropy có điều kiện để làm cơ sở tính lượng tin trong bài học kế tiếp Định nghĩa Entropy của nhiều biến Giả sử: X và Y là 2 biến ngẫu nhiên cho trước với pịj = p(X=xi,Y=yj) (∀ i=1, ,M và j=1, ,L). Khi đó, Entropy H(X,Y) có dạng: Hay Một cách tổng quát: Ví dụ Entropy của nhiều biến Cho 2 BNN X và Y độc lập nhau và có các phân phối: 26/135
  29. Tính H(X,Y). - Lập phân phối của P(X,Y) - H(X,Y) =H(0.125, 0.25, 0.125, 0.125, 0.25, 0.125)=2.5 (Bit) Định nghĩa Entropy có điều kiện Entropy của Y với điều kiện X=xi (i=1, ,M) được định nghĩa là: Entropy của Y với điều kiện X xảy ra được định nghĩa là: Ví dụ Entropy có điều kiện Xét biến ngẫu nhiên X và biến ngẫu nhiên Y có tương quan nhau. Các phân phối như sau: Phân phối của Y có điều kiện X: 27/135
  30. Entropy của Y/X=1 và Y/X=2 như sau : H(Y/X=1)=H(0.25, 0.5 , 0.25)= -0.25 log0.25 – 0.5 log0.5-0.25 log0.25 =0.5 + 0.5 + 0.5= 1.5 (Bit) H(Y/X=2)= H(0; 0; 1)= 0 (Bit) Entropy của Y khi X xảy ra: H(Y/X)=P(X=1) H(Y/X=1)+ P(X=2) H(Y/X=2)=(0.5x1.5) + ((0.5x0)=0.75 (Bit). Quan hệ giữa H(X,Y) với H(X) và H(Y) khi X, Y tương quan Định lý 2: H(X,Y)=H(X)+H(Y/X)=H(Y)+H(X/Y). Định lý 3: H(Y/X)≤ H(Y) và Dấu đẳng thức xảy ra khi và chỉ khi X và Y độc lập nhau. Chứng minh định lý 2: Tương tự ta có: H(X,Y)=H(Y)+H(X/Y) Chứng minh định lý 3: Từ định lý 1 và định lý về quan hệ giữa các Entropy, ta có: H(X,Y)=H(X)+H(Y/X)≤ H(X)+ H(Y) => H(Y/X) ≤ H(Y). 28/135
  31. Sinh viên tự chứng minh Bài tập Xét BNN X và BNN Y có tương quan nhau. Các phân phối như sau: Phân phối của Y có điều kiện X: Tính các Entropy sau: H(X), H(Y). Tính các Entropy có điều kiện sau: H(X/Y), H(Y/X). Tính các Entropy sau: H(X,Y). Từ kết quả câu 1,2 và 3 hãy minh họa các định lý 1, 2 và 3 cho bài học. 29/135
  32. minh họa các entropy MINH HỌA CÁC ENTROPY Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Biết được Yêu cầu của bài toán, • Biết cách xác định các phân phối ngẫu nhiên của bài toán, • Vận dụng các bài học trước để tính các Entropy H(X), H(Y) và H(X,Y), • Vận dụng các bài học trước để tính các Entropy có điều kiện H(X/Y) và H(Y/ X), • Nhận xét và so sánh quan hệ giữa các Entropy • Ngoài ra còn giúp bạn ôn tập và hiểu rõ hơn các công thức tính Entropy. Yêu cầu của bài toán Ta xét ví dụ về một người tổ chức trò chơi may rủi khách quan với việc tung một đồng tiền “có đầu hình – không có đầu hình”. Nếu người chơi chọn mặt không có đầu hình thì thắng khi kết quả tung đồng tiền là không có đầu hình, nguợc lại thì thua. Tuy nhiên người tổ chức chơi có thể “ăn gian” bằng cách sử dụng 2 đồng tiền “Thật- Giả” khác nhau sau: + Đồng tiền loại 1 (hay đồng tiền thật): đồng chất có 1 mặt có đầu hình. + Đồng tiền loại 2 (hay đồng tiền giả ): đồng chất, mỗi mặt đều có 1 đầu hình. Mặc dù người tổ chức chơi có thể “ăn gian” nhưng quá trình trao đổi 2 đồng tiền cho nhau là ngẫu nhiêu, vậy liệu người tổ chức chơi có thể “ăn gian” hoàn toàn được không? Hay lượng tin biết và chưa biết của sự kiện lấy một đồng tiền từ 2 đồng tiền nói trên được hiểu như thế nào? Ta thử xét một trường hợp sau: nếu người tổ chức chơi lấy ngẫu nhiên 1 đồng tiền và sau đó thực hiện việc tung đồng tiền lấy được 2 lần. Qua 2 lần tung đồng tiền, ta đếm được số đầu hình xuất hiện. Dựa vào số đầu hình xuất hiện, ta có thể phán đoán được người tổ chức chơi đã lấy được đồng tiền nào. Chẳng hạn: Nếu số đầu hình đếm được sau 2 lần tưng là 1 thì đồng tiền đã lấy được là đồng tiền thật, ngược lại nếu số đầu hình đếm được là 2 thì đồng tiền đã lấy được có thể là thật hay cũng có thể là giả. Như vậy, ta đã nhận được một phần thông tin về loại đồng 30/135
  33. tiền qua số đầu hình đếm được sau 2 lần tung. Ta có thể tính được lượng tin đó bằng bao nhiêu? (Việc tính lượng tin này sẽ được thảo luận sau). Xác định các phân phối ngẫu nhiên của bài toán Đặt X là biến ngẫu nhiên về loại đồng tiền. Phân phối của X: Đặt biến ngẫu nhiên Y là số đầu hình đếm được sau 2 lần tung: Phân phối của Y khi nhận được đồng tiền có 1 mặt có đầu hình (Y/X=1) Phân phối của Y khi nhận được đồng tiền có 2 mặt đều có đầu hình (Y/X=2) Tìm phân phối của Y: P(Y=0) = p(X=1)p(Y=0/X=1)+p(X=2)p(Y=0/X=2) = 0,5 x 0,25 +0,5 x 0 =0.125 P(Y=1) = p(X=1)p(Y=1/X=1)+p(X=2)p(Y=1/X=2) = 0,5 x 0,5 +0,5 x 0 =0.250 P(Y=2) = p(X=1)p(Y=2/X=1)+p(X=2)p(Y=2/X=2) = 0,5 x 0,25 + 0,5 x 1=0.625 Minh họa Entropy H(X), H(Y) và H(X,Y) Entropy của X: H(X) = H(0.5, 05) 31/135
  34. = -(0.5)log(0.5) -(0.5)log(0.5) = 1 (bit) Entropy của Y: H(X) = H(0.125, 0.25, 0.625) = -(0.125)log(0.125) + (0.25)log(0.25) + (0.625)log(0.625) = 1.2988 (bit) Entropy của X và Y: H(X,Y) Xem như bài tập dành cho các bạn sinh viên Entropy của Y/X là trung bình của các entropy Y/X=x i . Vậy, Entropy của Y có điều kiện X Tương tự: H(Y,Z/X), H(Z/X,Y) Minh họa Entropy H(X/Y) và H(Y/X) Tính Entropy của Y khi biết X: H(Y/X) H(Y/X=1) = H(0.25, 0.5 , 0.25) = -(0.25log0.25 + 0.5log0.5 + 0.25log0.25)= 1.5 (bit) H(Y/X=2)= H(0, 0, 1)= 0 H(Y/X)= p(X=1)H(Y/X=1)+ p(X=2)H(Y/X=2)= 0.5 x 1.5 + 0.5 x 0= 0.75 (bit) Tính Entropy của X khi biết Y: H(X/Y) Xem như bài tập dành cho các bạn sinh viên (Gợp ý: bạn nên lập các phân phối cho các trường hợp (X/Y=0), (X/Y=1) và (X/Y=2). Minh họa quan hệ giữa các Entropy Xem như bài tập dành cho các bạn sinh viên. Gợi ý: sau khi bạn tính H(X,Y) và H(X/Y), bạn dựa vào các định lý 1,2 và 3 cùng với các kết quả đã tính được để so sánh và minh họa. 32/135
  35. ĐO LƯỢNG TIN (MESURE OF INFORMATION) ĐO LƯỢNG TIN (MESURE OF INFORMATION) Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Biết bài toán tính lượng tin, • Hiểu định nghĩa lượng tin, • Biết cách tính lượng tin, • Có thể vận dụng để tính lượng tin cho các bài toán tương tự. Đặt vấn đề bài toán Ta xét ví dụ về một người tổ chức trò chơi may rủi khách quan với việc tung một đồng tiền “có đầu hình – không có đầu hình”. Nếu người chơi chọn mặt không có đầu hình thì thắng khi kết quả tung đồng tiền là không có đầu hình, nguợc lại thì thua. Tuy nhiên người tổ chức chơi có thể “ăn gian” bằng cách sử dụng 2 đồng tiền “Thật- Giả” khác nhau sau: + Đồng tiền loại 1 (hay đồng tiền thật): đồng chất có 1 mặt có đầu hình. + Đồng tiền loại 2 (hay đồng tiền giả ): đồng chất, mỗi mặt đều có 1 đầu hình. Mặc dù người tổ chơi có thể “ăn gian” nhưng quá trình trao đổi 2 đồng tiền cho nhau là ngẫu nhiêu, vậy liệu người tổ chức chơi có thể “ăn gian” hoàn toàn được không? Ta thử xét một trường hợp sau: nếu người chơi lấy ngẫu nhiên 1 đồng tiền và sau đó thực hiện việc tung đồng tiền lấy được 2 lần. Qua 2 lần tung đồng tiền, ta đếm được số đầu hình xuất hiện. Dựa vào số đầu hình xuất hiện, hãy tính lượng tin về loại đồng tiền lấy được là bao nhiêu? Xác định các phân phối của bài toán Đặt biến ngẫu nhiên X là loại đồng tiền, khi đó phân phối của X có dạng : 33/135
  36. Đặt biến ngẫu nhiên Y là số đầu hình đếm được sau 2 lần tung. Khi đó ta có thể xác định được phân phối của Y trong 2 trường hợp sau. Trường hợp 1: Phân phối của Y khi biết đồng tiền là thật (X=1) có dạng: Trường hợp 2: Phân phối của Y khi biết đồng tiền là giả (X=2) có dạng: Ta có thể tính dễ dàng phân phối của Y như sau: Nhận xét dựa theo entropy Từ các bảng phân phối trên, ta có: Entropy của Y: H(Y) = H(0.125, 0.25, 0.625) = 1.3 (bit) Entropy của Y khi biết X H(Y/X=1) = H(0.25, 0.5 , 0.25)= 1.5 (bit) H(Y/X=2)= H(0, 0, 1)= 0 H(Y/X)= p(X=1)H(Y/X=1)+ p(X=2)H(Y/X=2) = 0.75 (bit) Vậy, H(Y) > H(Y/X) Định nghĩa lượng tin Từ nhận xét về quan hệ giữa các entropy ở trên, ta có thể định nghĩa lượng tin như sau: 34/135
  37. Định nghĩa: Lượng tin (hay thông lượng) của X khi Y xảy ra là lượng chênh lệch giữa lượng không chắc chắn của X và lượng không chắc chắn của X khi Y xảy ra có quan hệ với X. Ta có thể hiểu khái niệm này như sau: X và Y là 2 biến ngẫu nhiên nên chúng có 2 lượng tin không chắc chắn. Nếu X và Y độc lập, thì X xảy ra không ảnh hưởng tới Y nên ta vẫn không biết gì thêm về X và X giữ nguyên lượng không chắc chắn của nó. Trong trường hợp này lượng tin về X khi Y xảy ra là bằng 0. Nếu Y có tương quan với X thì khi Y xảy ra ta biết hoàn toàn về Y và một phần thông tin về X. Phần thông tin đó chính là lượng tin đã biết về X nhưng vẫn chưa biết hết về X. Bài toán ở đây là tính lượng tin đã biết về X khi Y xảy ra. Ký hiệu: I(X/Y) = H(X)-H(X/Y) là lượng tin đã biết về X khi Y đã xảy ra. Chú ý: ta luôn có I(X/Y) = I(Y/X) Ví dụ: xét lại ví dụ trên, ta có lượng tin về X khi biết Y là I(X/Y)= I(Y/X)= H(Y) – H(Y/X) = 1.3 – 0.75=0.55 (bit). Bài tập Thực hiện một phép thử con xúc sắc đồng chất đồng thời với một đồng tiền cũng đồng chất. Trong đó, con xúc sắc có các mặt điểm từ 1 đến 6, đồng tiền một mặt có đầu hình và mặt kia không có đầu hình. Trước tiên thử con xúc sắc, nếu số điểm <_ 4 thì tung đồng tiền một lần, ngược lại thì tung đồng tiền hai lần. Tính lượng tin về số điểm con xúc sắc khi biết thông tin về số đầu hình đếm được. Người ta thực hiện một khảo sát trên các sinh viên đại học về mối quan hệ giữa khả năng học tập với sở hữu phương tiện đi lại và tinh thần ái hữu. Kết quả cho thấy: Trong tổng số sinh viên có 3/4 sinh viên hoàn thành chương trình học và 1/4 không hoàn thành. Trong số sinh viên hoàn thành chương trình học, 10% có xe con. Ngược lại, trong số sinh viên không hoàn thành chương trình học có tới 50% có xe con. Tất cả sinh viên có xe con đều tham gia hội ái hữu sinh viên. Trong số sinh viên không có xe con (kể cả hoàn thành hay không hoàn thành khóa học) thì 40% sinh viên tham gia hội ái hữu sinh viên. Tìm thông tin về trạng thái học tập của sinh viên khi biết điều kiện về phương tiện đi lại của họ. Tìm thông tin về tình trạng học tập của sinh viên khi biết tinh thần ái hữu của họ. 35/135
  38. Những người dân của một làng được chia làm 2 nhóm A và B. Một nửa nhóm A chuyên nói thật, 3/10 nói dối và 2/10 từ trối trả lời. Trong nhóm B: 3/10 nói thật, 1/2 nói dối và 2/10 từ trối trả lời. Giả sử p là xác suất chọn 1 người thuộc nhóm A và I(p) = I(Y/X) là lượng tin về người nói thật sau khi đã chọn nhóm, tính I(p), tìm p* sao I(p*) = Max(I(p) và tính I(p*). 36/135
  39. SINH MÃ TÁCH ĐƯỢC (Decypherable Coding) SINH MÃ TÁCH ĐƯỢC (Decypherable Coding) Mục tiêu: Phân này đề cập đến bài toán mã hóa (coding) các giá trị của một biến X. Khi mã các giá trị của X người ta phải sử dụng bảng ký tự mã (Coding Character Table) hay bảng chữ cái (Code Alphabet). Như vậy, một giá trị x của X sẽ được mã thành một từ mã (Code Word) w dưới dạng một dãy các ký tự mã với độ dài là n ký tự. Trong truyền tin, một dãy các giá trị của X được phát sinh và được mã thành một dãy liên tục các từ mã hay một dãy các ký tự mã lấy từ bảng ký tự mã. Vấn đề cần giải quyết là: Khi nhận một dãy ký tự mã liên tục đó thì ta có thể giải mã thành một dãy các giá trị duy nhất của X hay không ? Nói cách khác, dãy ký tự mã này có tách được thành các từ mã một cách duy nhất hay không ? Chỉ ra phương pháp xây dựng mã tách được tối ưu. KHÁI NIỆM VỀ MÃ TÁCH ĐƯỢC Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Biết yêu cầu của bài toán sinh mã, • Hiểu khái niệm về bảng mã tách được và bảng mã không tách được, • Hiểu khái niệm về bảng mã tức thời, • Hiểu giải thuật kiểm tra tính tách được của một bảng mã, • Vận dụng giải thuật kiểm tra tính tách được của một bảng mã để kiểm tra xem một bảng mã có phải là bảng mã tách được hay không. Đặt vấn đề bài toán sinh mã Giả sử nguồn tin X xuất hiện và được ghi lại thông qua một thiết bị đặc biệt. Chẳng hạn như ảnh được ghi lại bằng máy ảnh, âm thanh được ghi lại bằng máy ghi âm, Qua kênh truyền, những thông tin này cần phải được mã hóa cho phù hợp. Để có thể mã hóa người ta cần một bảng chữ cái gồm các chữ cái quy định trước (chẳng hạn bảng chữ cái la tinh, bảng mã nhị phân, ). Mỗi giá trị của X sau đó được mã dưới dạng một dãy 37/135
  40. hữu hạn các chữ cái và ta gọi dãy hữu hạn các chữ cái gán cho một giá trị của x là một từ mã. Ta xét BNN X={x1, x2, ,xn} có phân phối {p1, p2, , pn} được quan sát liên tục và độc lập. Dãy các giá trị nhận được gọi là thông báo (Message) có dạng xi1xi2 xin. Tập hợp A={a1, a2, , an} là tập hợp ký tự mã (Code Characters) hay là bảng chữ cái (Code Alphabet) dùng để sinh mã. Một giá trị xi thuộc X được gán bởi một dãy hữu hạn các ký tự mã được gọi là từ mã (Code word). Tập hợp gồm tất cả các từ mã gán cho tất cả các giá trị của X được gọi là bộ mã hay bảng mã (Code). Các từ mã phải khác nhau từng đôi một. Bộ mã được gọi là tách được nếu như từ một dãy các ký tự mã nhận được liên tục (được mã hóa từ bộ mã này), ta luôn luôn giải mã được với kết quả duy nhất là dãy các giá trị gốc của X. Shannon (1948) lần đầu tiên đã đưa ra định lý cơ sở về sinh mã tách được. Mc Millan (1956) đã chứng minh định lý về điều kiện cần và đủ của bảng mã tách được. Nhưng vấn đề sinh mã tách được chỉ được xét một cách chuẩn mực bởi Feinstein (1958), Abramson (1963) và Fano (1961). Sardinas(1960) và Patterson (1963) đã đưa ra định lý về giải thuật kiểm tra tính tách được của một bảng mã. Abramson (1963) đã đưa ra khái niệm bảng mã tức thời. Trong phạm vi bài giảng này, bài toán sinh mã tối ưu được đặt ra ở đây là tìm ra một phương pháp sinh mã sao cho độ dài trung bình của các từ mã trong bộ mã là nhỏ nhất. Nghĩa là, nếu giá trị xi được gán bởi từ mã có độ dài ni thì bài toán sinh mã phải thỏa: Huffman (1950) đã đưa ra qui trình xây dựng một bảng mã tối ưu thỏa yêu cầu này. Khái niệm về bảng mã không tách được Bảng mã không tách được là bảng mã mà khi mã hóa thông báo Msg ta sẽ nhận được một dãy các từ mã ws, và khi giải mã dãy các từ mã ws thì ta có thể nhận được nhiều thông báo Msg khác nhau. Ví dụ: Xét biến ngẫu nhiên X={x1, x2,x3, x4} có bảng mã W={w1=0, w2=1, w3=01, w4=10}. Giả sử thông báo nguồn có nội dung: x1x2x3x4x3x2x1. Khi đó dãy mã tương ứng viết từ W có dạng: 0101100110. 38/135
  41. Nếu giải mã tuần tự từ trái qua phải ta nhận kết quả: x1x2x1x2x2x1x1x2x2x1. Nhưng nếu bằng phương pháp khác ta có thể nhận được kết quả: x3x3x4x3x4 và nhiều thông báo khác nữa. Nhận xét:Bảng mã giải mã không tách được là bảng mã mà trong đó tồn tại ít nhất một từ mã này là mã khóa của một hay nhiều từ mã khác trong bộ mã (ví dụ từ mã w1=0 hay w2=1 là mã khóa của w3). Bảng mã tách được Bảng mã tách được là bảng mã mà khi mã hóa thông báo Msg ta sẽ nhận được dãy các từ mã ws, và khi giải mã dãy các từ mã ws thì ta chỉ nhận được một thông báo duy nhất là Msg ban đầu. Ví dụ: Xét biến ngẫu nhiên X={x1, x2} có bảng mã tương ứng W={w1=0, w2=01}. Phương pháp giải mã được sử dụng như sau: chỉ giải mã khi nào đã nhận được đoạn mã với độ dài bằng độ dài của từ mã dài nhất. Giả sử dãy mã nhận được (cần giải mã) là: 0010000101001. Sử dụng phương pháp giải mã trên ta nhận được duy nhất dãy thông báo gốc: x1x2x1x1x1x2x2x1x2. Có thể chi tiết hóa các bước giải mã dãy từ mã trên như sau: Nhận được đoạn 00 -> Giải ra x1 , còn lại 0. Nhận tiếp 1 ->01 -> Giải ra x2. Nhận tiếp 00 -> Giải ra x1, còn lại 0. Nhận tiếp 0 -> 00 -> Giải ra x1, còn lại 0. Nhận tiếp 0 -> 00 -> Giải ra x1, còn lại 0. Nhận tiếp 1 -> 01 -> Giải ra x2. Nhận tiếp 01 -> Giải ra x2. Nhận tiếp 00 -> Giải ra x1, còn lại 0. 39/135
  42. Nhận tiếp 1 -> 01 -> Giải ra x2. Kết quả dãy thông báo là: x1x2x1x1x1x2x2x1x2. Kết luận:Bảng mã tách được là bảng mã mà trong đó không tồn lại từ mã này là mã khóa từ mã khác, tuy nhiên vẫn có thể tồn tại từ mã này là tiền tố (phần đầu) của từ mã kia. Khái niệm bảng mã tức thời Bảng mã tức thời là bảng mã mà khi mã hóa thông báo Msg ta sẽ nhận được dãy các từ mã ws, và khi giải mã dãy các từ mã ws thì ta chỉ nhận được một thông báo duy nhất là Msg ban đầu. Abramson đã chứng minh được kết quả sau: Bảng mã tức thời là bảng mã không tồn tại từ mã này là tiền tố của từ mã khác. Ví dụ 1: Bảng mã W={w1=10; w2=101; w3=100} không phải bảng mã tức thời vì w1 là tiền tố của w2 và w3. Ví dụ 2: Bảng mã W={w1=0, w2=100, w3=101, w4=11} là bảng mã tức thời vì không tồn tại từ mã này là tiền tố của từ mã khác. Giải thuật kiểm tra tính tách được của bảng mã Thủ tục sau đây do Sardinas (1960), Patterson (1963) và Abramson (1963) đưa ra nhằm kiểm tra xem một bảng mã nào đó có phải là bảng mã tách được (bảng mã cho phép giải mã duy nhất) hay không. Input: Bảng mã W Output: Kết luận bảng mã tách được hay không tách được. Giải thuật: Bước khởi tạo: Gán tập hợp S 0 =W. xác định tập hợp S1 từ S0: - Khởi tạo S1={} - Với ∀ wi, wj thuộc S0, ta xét: nếu wi=wjA (wj là tiền tố của wi) hoặc wj=wi A (wi là tiền tố của wj) thì thêm A (phần hậu tố) vào S1. Bước k: xác định tập hợp Sk (k≥2) từ tập hợp S0 và Sk-1: 40/135
  43. - Khởi tạo: Sk={} - Với ∀ withuộc S0 và ∀ vj thuộcSk-1, ta xét: nếu wi=vjA (vj là tiền tố của wi) hoặc vj=wi A (wi là tiền tố của vj) thì thêm A (phần hậu tố) vào Sk. Điều kiện để dừng vòng lặp: Nếu Sk={} thì dừng và kết luận bảng mã tách được (k≥1). Nếu tồn tại từ mã wi trong Sk hay Sk giao S0 khác rỗng thì dừng và kết luận bảng mã không tách được. Nếu Sk=St S1={d}. Vì a là tiền tố của abb nên đưa phần hậu tố “bb” vào S1 => S1={d, bb}. Kiểm tra điều kiện dừng: không thỏa -> qua bước 2. Bước 2: Tính S2 từ S0 và S1. Khởi tạo S2={}. Vì d thuộc S1 là tiền tố của deb thuộc S0 nên đưa phần hậu tố “eb” vào S2 => S2={eb} Vì bbthuộc S1 là tiền tố của bbcde thuộc S0 nên đưa phần hậu tố “cde” vào S2 => S2={eb, cde} 41/135
  44. Kiểm tra điều kiện dừng: không thỏa -> qua bước 3. Bài toán 1 - Áp dụng giải thuật Bước 3: Tính S3 từ S0 và S2. Khởi tạo S3={}. Vì cthuộc S0 là tiền tố của cde thuộc S2 nên đưa phần hậu tố “de” vào S3 => S3={de} Kiểm tra điều kiện dừng: không thỏa -> qua bước 4. Bước 4: Tính S4 từ S0 và S3. Khởi tạo S4={}. Vì dethuộc S3 là tiền tố của deb thuộc S0 nên đưa phần hậu tố “b” vào S4 => S4={b} Kiểm tra điều kiện dừng: không thỏa -> qua bước 5. Bước 5: Tính S5 từ S0 và S4. + khởi tạo S5={}. + Vì bthuộc S4 là tiền tố của bad thuộc S0 nên đưa phần hậu tố “ad” vào S5 => S5={ad} + Vì bthuộc S4 là tiền tố của bbcde thuộc S0 nên đưa “bcde” vào S5 => S5={ad, bcde} Kiểm tra điều kiện dừng: Vì S5 có chứa từ mã ad nên dừng lại và kết luận đây là bảng mã không tách được. Bài toán 2 Bài toán: Kiểm tra xem bảng mã W={010, 0001, 0110, 1100, 00011, 00110, 11110, 101011} có phải là bảng mã tách được không? Áp dụng Giải thuật kiểm tra tính tách được của một bảng mã: 42/135
  45. Bước khởi tạo và bước 1 - Tập hợp S0 ={010, 0001, 0110, 1100, 00011, 00110, 11110, 101011} - Tập hợp S1 ={1} Dành cho sinh viên tự làm các buớc tiếp theo. Kết quả gợi ý: Tập hợp S2 ={100, 1110, 01011} Tập hợp S3={11} Tập hợp S4={00, 110} Tập hợp S5={01, 0, 011, 110} Tập hợp S6={0, 10, 001, 110, 0011, 0110} Tập hợp S6 chứa từ mã 0110 nên bảng mã này không phải là bảng mã tách được. Bài tập Hãy cho biết bảng mã sau có phải là bảng mã tách được hay không? W={w1=00, w2=01, w3=0010, w4=0111, w5=0110} Hãy lấy ví dụ một bảng mã tách được, và chứng minh nó là bảng mã tách được. 43/135
  46. quan hệ giữa mã tách được và độ dài mã QUAN HỆ GIỮA MÃ TÁCH ĐƯỢC VÀ ĐỘ DÀI MÃ Mục tiêu Sau khi hoàn tất bài học này bạn có thể hiểu: • Định lý Kraft (1949), • Định nghĩa cây bậc D cỡ K, • Vấn đề sinh mã cho cây bậc D cỡ K, • Vận dụng định lý Kraff để kiểm tra sự tồn tại bảng mã tách được và sinh bảng mã tách được. Định lý Kraftn(1949). Gọi X={x1, x2, , xM} là biến ngẫu nhiên chứa các giá trị cần truyền có phân phối là P={p1, p2, , pM}. A={a1, a2, ,aD} là bộ ký tự sinh mã có D chữ cái (D được gọi là cơ số sinh mã). Giá trị xi được mã hóa thành từ mã wi có độ dài là ni. Đặt N={n1, n2, ,nM} là tập hợp độ dài các từ mã. Định lý (Kraft- 1949): Điều kiện cần và đủ để tồn tại bảng mã tức thời với độ dài N={n1,n2, ,nM} là Ví dụ 1: Bộ mã W={w1, w2, w3} với M=3; n1=1; n2=2; n3=3; D=2 => Tồn tại bảng mã tức thời. Ví dụ 2: Bộ mã W={w1, w2, w3} với M=3; n1=n2=1; n3=2; D=2 44/135
  47. => Không tồn tại bảng mã tức thời. Đề nghị: sinh viên tìm hiểu nội dung tiếp theo và trở lại giải thích 2 ví dụ trên. Định nghĩa cây bậc D cỡ k. Định nghĩa: Cây bậc D cỡ k là cây có hệ thống nút, cạnh thỏa điều kiện: • Từ 1 nút có số cạnh đi ra không vượt quá D hay một nút có không quá D nút con. • Nút cuối cùng (Nút lá) cách nút gốc không vượt quá k cạnh. Ví dụ: cây bậc D=2 và cỡ k=3 Vấn đề sinh mã cho cây bậc D cỡ k Sinh mã cho các nút của cây bậc D cỡ K (trừ nút gốc): Để đơn giản hóa: mỗi nút (trừ nút gốc) được ký hiệu bởi dãy ký hiệu của nút cha làm tiền tố + một ký tự bổ sung lấy từ tập hợp {0, 1, 2, , D-1} thay cho bảng chữ cái A={a1, a2, , aD}. Ví dụ 1: Cây bậc D=2 cỡ k=3 Ví dụ 2: Cây bậc D=3 cỡ k=2. 45/135
  48. Tính chất: + Các nút (trừ nút gốc) của cây đều được mã hóa từ bảng chữ cái {0, 1, 2, , D-1} + Mỗi nút (đã mã hóa) có mã của nút kề trước là tiền tố. + Tổng số các nút lá bằng Dk = tổng số các mã tức thời có thể có. Chứng minh định lý Kraft (Điều kiện cần) Giả sử, cho trước bảng mã tức thời W={w1, w2, , wM} với N={n1<_ n2 <_ <_ nM}. Ta cần c/m: Xây dựng cây bậc D cỡ nM và sinh mã cho các nút trừ nút gốc với các ký tự mã lấy từ bảng chữ cái A = {0, 1, 2, , D-1}. Mã tại mỗi nút (trừ nùt gốc) đều có khả năng được chọn là từ mã. Như vậy, ta tiến hành chọn các từ mã cho bảng mã tức thời với qui tắc là: một nút nào đó được chọn để gán một từ mã thì tất cả các nút kề sau nút gán từ mã phải được xóa. Cụ thể như sau: Chọn một nút có mã với độ dài mã là n1 gán cho nó một từ mã w1. 46/135
  49. Chứng minh định lý Kraft (Điều kiện đủ) Giả sử: , để cần chứng minh tồn tại bảng mã tức thời với N={n1, n2, , nM}, ta chỉ cần chỉ ra thủ tục xây dựng bảng mã tức thời như sau: Thủ tục tạo mã tức thời: Xét N={n1, n2, ,nM} và cơ số sinh mã là D: Bước 1: Ta xếp thứ tự n1 Bảng mã W={w1, w2, , wM} là bảng mã tức thời. 47/135
  50. Ví dụ minh họa định lý Kraft Ví dụ 1: Xét bảng mã thỏa M=3, D=2, n1=1, n2=2, n3=3. Vậy ta kiểm tra xem có tạo được bảng mã tức thời hay không? Ta có => W= {w1, w2, w3} là bảng mã tức thời Ta Xây dựng bảng mã như sau: Chú ý: ngoài bảng mã tức thời chọn được ở trên, ta còn có thể sinh được nhiều bảng mã tức thời khác. Đề nghị sinh viên đưa ra bảng mã tức thời khác. Bài tập Tìm 1 bảng mã tách được thỏa tính chất D = 2, k = 4? Tìm tất cả các bảng mã tách được thỏa tính chất D=2, k=3? Hãy chỉ ra bảng mã sau đây là bảng mã không tách được: W={w1=00, w2=1, w3=100, w4=110, w5=111} Hãy tìm một bảng mã nhị phân tách được có ít nhất 5 từ mã thỏa điều kiện 48/135
  51. 49/135
  52. tính tối ưu của độ dài mã TÍNH TỐI ƯU CỦA ĐỘ DÀI MÃ Mục tiêu Sau khi hoàn tất bài học này bạn có thể: Hiểu định lý Shannon (1948), Biết được các tiêu chuẩn đánh giá bảng mã tối ưu tuyệt đối và bảng mã tối ưu tương đối, Điều kiện nhận biết một bảng mã tối ưu, Hiểu Định lý Huffman, Biết Phương pháp sinh mã Huffman, Vận dụng phương pháp sinh mã Huffman để sinh mã Huffman cho một thông báo, Vận dụng phương pháp sinh mã Huffman để viết chương trình nén. Định lý Shannon (1948) Phát biểu định lý: Đặt là độ dài trung bình của bảng mã. Khi đó Dấu đẳng thức xảy ra khi và chỉ khi Diễn giải: Đối với mã tách được độ dài trung bình của mã sẽ có cận dưới làH(x)/Log2(d). Nếu mã không tách được độ dài trung bình của nó có thể nhỏ hơn cận 50/135
  53. dưới. Nếu mã tách được không tối ưu thì độ dài của nó sẽ lớn hơn nhiều so với cận dưới, còn nếu mã tách được tối ưu thì độ dài trung bình của nó gần với cận dưới. Bài toán đặt ra sẽ là tìm phương pháp xây dựng bảng mã tách được tối ưu. Chú ý: là entropy của X với cơ số D. Bảng mã tối ưu tuyệt đối Định lý: Bảng mã được gọi là tối ưu tuyệt đối khi Ví dụ: xét biến ngẫu nhiên X={x1, x2, x3, x4} Có phân phối: P={1/2, 1/4, 1/8, 1/8} Có bảng mã W={w1= 0, w2=10, w3=110, w4=111} Ta tính được độ dài trung bình từ mã: Tính Entropy của X: H(X)= H(0.5, 0.25, 0.125, 0.125) = 0.5 +0.5 + 0.375 + 0.375 =1.75 Log2D=1. 51/135
  54. Bảng mã tối ưu tương đối Định lý: Bảng mã được gọi là tối ưu tương đối khi: Điều kiện nhận biết một bảng mã tối ưu Định lý (với D=2): • Xác suất pi càng lớn thì độ dài ni của từ mã wi càng nhỏ. • Giả sử p1_> p2 _> 1_> pM. Nếu pi_> pi+1 _> pi+r thì ni 2 được xét tương tự. Định lý Huffman Định lý: Giả sử X có phân phối xác suất với thứ tự giảm dần sau: 52/135
  55. Giả sử bảng mã của X là W={w1, w2, , wM-1, wM}. Đặt xM-1,M={xM-1, xM} có xác suất là pM-1,M=pM-1+pM. * và X = { x1, x2, , xM-1,M} có phân phối sau: Giả sử W* ={w1, w2, , wM-2, x*M-1,M} là bảng mã tối ưu của X*. Khi đó: - wM-1=w*M-1,M + “0”. - wM =w*M-1,M + “1”. Phương pháp sinh mã Huffman Giả sử X có phân phối xác suất với thứ tự giảm dần sau: Thủ tục lùi (D=2): Khởi tạo: Đặt M0=M Bước 1: - Đặt có xác suất - Sắp xếp lại theo tứ tự giảm dần của xác suất ta nhận được dãy phân phối mới có M0-1 phần tử như sau: 53/135
  56. Bước 2: Lặp lại bước 1 với sự lưu vết Giảm M0: M0=M0-1, vòng lặp kết thúc khi M0=2 (Chú ý: trong trường hợp tổng quát, vong lặp kết thúc khi M0 <_ D.) Thủ tục tiến: Đi ngược lại so với thủ tục lùi đồng thời xác định từ mã ở mỗi bước từ sự lưu vết ở thủ tục lùi. Minh họa phương pháp sinh mã Huffman Ví dụ 1: sinh bảng mã nhị phân Huffman cho X có phân phối sau: 54/135
  57. Thủ tục lùi: Độ dài trung bình của từ mã: Vecto n=(0.3 x 2)+ (0.25 x 2)+ (0.2 x 2) + (0.1 x 3) +(0.1 x 4) + (0.05 x 4) = 2.4 Entropy của X: H(X) = H(0.3, 0.25; 0.2, 0.1,0.1, 0.05) = 2.4 Nhận xét: Do D = 2 và log2D=1, Ta có vecto n = H(X) nên bảng mã trên tối ưu tuyệt đối. Bài tập Cho biến ngẫu nhiên X có phân phối sau: Cho biến ngẫu nhiên Y có phân phối sau: 55/135
  58. Cho đoạn văn bản “thoi the thi thoi thi the thoi thi the”. Tìm bảng mã nhị phân Huffman dùng để mã hóa đoạn văn bản trên. Thay từng ký tự trong đoạn văn bản trên thành một từ mã, cắt từng đoạn 8 bits đổi thành số thập phân. Cho biết dãy số thập phân kết quả. 56/135
  59. kênh truyền rời rạc không nhớ KÊNH TRUYỀN Mục tiêu: Trình bày mô hình truyền tin rời rạc từng ký tự mã độc lập lẫn nhau (phù hợp với đặc điểm của kênh). Mô hình này còn gọi là kênh truyền rời rạc không nhớ (Memoryless Discret Channel). Từ mô hình này người ta có thể xây dựng cách tính dung lượng kênh truyền và phương pháp phân loại đầu nhận để có thể giải mã tốt nhất. KÊNH TRUYỀN RỜI RẠC KHÔNG NHỚ Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Biết mô hình kênh truyền tin rời rạc không nhớ ở 2 khía cạnh vật lý và toán học. • Khái niệm về lượng tin trên kênh truyền • Định nghĩa dung lượng kênh truyền Giới thiệu Trước hết, ta có thể hiểu khái niệm kênh truyền rời rạc và không nhớ ở bài học này như sau: khái niệm truyền rời rạc ở đây là truyền tuần tự các ký tự độc lập nhau (hay truyền từng ký tự một), còn khái niệm không nhớ ở đây là chỉ xét mối quan hệ giữa ký tự truyền và ký tự nhận được tương ứng, không xét đến mối quan hệ giữa ký tự nhận được với ký tự nhận được trước đó. Khái niệm về một kênh truyền rời rạc dựa vào phân bố xác suất của tín hiệu ra phụ thuộc vào tín hiệu vào và trạng thái của kênh truyền đã được chuẩn hóa bởi Feinstein (1958) và Wolfowitz (1961). Dung lượng kênh (Channel Capacity) được xác định chính xác nhờ Muroya (1953) và Fano (1961). Giải thuật và chương trình tính dung lượng kênh đã được viết bởi Eisenberg (1963). Định lý cơ bản về truyền tin đã chỉ ra rằng “với dung lượng kênh cho trước luôn có thể tìm ra một phương pháp truyền tin với lượng tin nhỏ hơn dung lượng kênh và đạt sai số nhỏ hơn sai số cho phép bất kỳ”. Định lý cơ bản về truyền tin đã được Feinstein (1954, 1958) khảo sát. Các nhà khoa học Blackwell, Breinan (1958, 1959) và Thomasian (1961) đã lần lượt chỉnh lý để đạt chuẩn tốt hơn. Trong các nội dung tiếp theo của bài học, các bạn sẽ tìm hiểu về mô hình kênh truyền tin rời rạc không nhớ ở 57/135
  60. khia cạnh vật lý và toán học. Đặc biệt ở mô hình toán học sẽ chỉ ra cách xác định phân phối ở đầu ra dựa vào phân phối ở đầu vào. Mô hình vật lý Một thông báo được cấu tạo từ các ký hiệu của một bảng chữ cái ở đầu truyền (input) và được truyền trên kênh. Thông báo được nhận ở cuối kênh (hay đầu nhận-output) và được giải mã theo bảng chữ cái ở đầu truyền. Mặt khác, từng ký tự ở đầu nhận có thể quan hệ với các ký tự ở đầu nhận trước đó, các ký tự ở đầu truyền và trạng thái của kênh truyền. Để đơn giản, ở đây chúng ta chỉ xét mô hình vật lý như sau: Xét từng ký tự ở đầu nhận chỉ phụ thuộc vào ký tự ở đầu truyền tương ứng với nó, nếu kênh truyền có nhiễu thì một ký tự ở đầu truyền có thể được diễn giải (nhiễu) ra nhiều ký tự khác nhau ở đầu nhận và do đó tạo ra một phân phối xác suất có điều kiện cho ký tự ở đầu nhận. Mô hình truyền tin rời rạc không nhớ là mô hình truyền tin chỉ xét mối quan hệ giữa ký tự truyền và ký tự nhận được tương ứng, không xét mối quan hệ giữa ký tự nhận được và ký tự nhận được trước đó. Mô hình: Mô hình toán học Ta gọi: 58/135
  61. • Tx={x1, x2, , xM} là bộ ký tự sinh mã ở đầu truyền (input). • Ty={y1, y2, ,yL} là bộ ký tự giải mã ở đầu nhận (output). • Biến ngẫu nhiên X lấy giá trị (đã mã hóa) trên Tx và có phân phối p(X=xi)=p(xi) với i=1, ,M. • Biến ngẫu nhiên Y lấy giá trị (giải mã) trên Ty và có phân phối xác suất có điều kiện: P(Y=yj/X=xi)=p(yj/xi)=pij với j=1, ,L. Gọi A=||pij|| là ma trận truyền tin hay mô hình truyền tin của kênh truyền rời rạc không nhớ. Với và pij = p(Y=yj/X=xi) = p(yj/xi) là xác suất nhận được giá trị yj khi đã truyền giá trị xi. Tính phân phối đầu nhận: Ta có: Vậy p(yj)= PX’ .Aj(1) Một các tổng quát: P’Y = P’X.A (2) Trong đó: • Ajlà cột thứ j của A • P’X = [p(x1), p(x2), ., p(xM)]. • P’Y = [p(y1), p(y2), ., p(yM)]. Ví dụ xác định phân phối đầu nhận Cho ma trận truyền tin như sau: 59/135
  62. Xác suất truyền: p(x1)=0.5 và p(x2)=p(x3)= 0.25. Ta tìm phân phối của Y : ’ Ta có: PX =(0.5, 0.25, 0.25) Áp dụng công thức (1) ở trên ta được: ’ p(y1) = Px .A1 = 0.375 ’ p(y2) = Px .A2 = 0.3 ’ p(y3) = Px .A3 = 0.325 => PY’ =(0.375, 0.3, 0.325) Lượng tin trên kênh truyền Ví dụ: cho ma trận truyền tin như sau: Xác suất truyền: p(x1)=0.5 và p(x2)=p(x3)= 0.25. X = {x1,x2,x3} được xem như tập các ký tự truyền và Y ={y1, y2, y3} là tập các ký tự nhận. Tính lượng tin trên kênh truyền: Ta tìm phân phối của Y : ’ Ta có: PX =(0.5, 0.25, 0.25) Áp dụng công thức (1) ở trên ta được: ’ p(y1) = Px .A1 = 0.375 ’ p(y2) = Px .A2 = 0.3 60/135
  63. ’ p(y3) = Px .A3 = 0.325 ’ => PY =(0.375, 0.3, 0.325) Tính các Entropy: H(Y) = H(0.375, 0.3, 0.325) = 1.58 (bit) H(Y/X=x1) = H(0.5, 0.2, 0.3)= 1.49 (bit) H(Y/X=x2) = H(0.3, 0.5, 0.2)= 1.49 (bit) H(Y/X=x1) = H(0.2, 0.3, 0.5)= 1.49 (bit) H(Y/X)= p(x1).H(Y/X=x1) + p(x2).H(Y/X=x2) + p(x3).H(Y/X=x3) = 1.49 (bit) Lượng thông tin truyền trên kênh: I (X/Y)= I (Y/X)= H(Y) - H(Y/X) = 0,09 (bit) Định nghĩa dung lượng kênh truyền Dựa vào ma trận truyền tin A, ta có thể dễ dàng tính lượng tin trên kênh truyền. I(X/Y)= H(X)-H(Y/X) = H(Y)-H(X/Y) = I(Y/X) Ta có I(X/Y)= H(Y)-H(Y/X), trong đó: ’ H(Y)= H(PX .A) phụ thuộc vào PX. H(Y/X) phụ thuộc vào PX Vậy: I(Y/X) phụ thuộc hoàn toàn vào PX và do đó I(Y/X) có thể đạt Max với PX xác định nào đó. Ta định nghĩa: là dung lượng của kênh truyền (ĐVT: bit). 61/135
  64. các dạng kênh truyền CÁC DẠNG KÊNH TRUYỀN Mục tiêu Sau khi hoàn tất bài học này bạn có thể: Biết kênh truyền không mất tin, Biết kênh truyền xác định, Biết kênh truyền không nhiễu, Biết kênh truyền không sử dụng được, Hiểu kênh truyền đối xứng, Hiểu định lý về dung lượng kênh truyền,Kênh truyền không mất tin Mô hình: từ tập hợp các giá trị có thể nhận được ở đầu nhận Y={y1, y2, , yL} được phân thành M nhóm Bi tương ứng với các giá trị xi ở đầu truyền và xác suất để truyền xi với điều kiện đã nhận yj là p(X= xi /Y=yj thuộc Bi)=1 ( với M < L ). Đặc trưng của kênh truyền không mất tin là H(X/Y)=0. Có nghĩa là lượng tin chưa biết về X khi nhận Y là bằng 0 hay ta có thể hiểu khi nhận được Y thì ta hoàn toàn có thể biết về X. Dung lượng: C=log2M (Sinh viên tự chứng minh, xem như bài tập) 62/135
  65. Kênh truyền xác định Mô hình: từ tập hợp các giá trị có thể truyền ở đầu truyền được phân thành L nhóm Bj tương ứng với các giá trị có thể nhận được yj ở đầu nhận và xác suất để nhận yj với điều kiện đã truyền xi là p(Y=yj/X=xi thuộc Bj)=1 (M>L). Đặc trưng: của kênh truyền xác định là H(Y/X)=0. Có nghĩa là lượng tin chưa biết về Y khi truyền X bằng 0 hay khi truyền X thì ta biết sẽ nhận được Y. Dung lượng: C=log2L (Sinh viên tự chứng minh, xem như bài tập) Kênh truyền không nhiễu Mô hình: là sự kết hợp của kênh truyền xác định và kênh truyền không mất thông tin, truyền ký tự nào sẽ nhận được đúng ký tự đó. Đặc trưng: H(X/Y)=H(Y/X)=0. Dung lượng: C=log2L=log2M (Sinh viên tự chứng minh, xem như bài tập) Ví dụ: ma trận truyền tin của kênh truyền không nhiễu với M=L=3 63/135
  66. Kênh truyền không sử dụng được. Mô hình: là kênh truyền mà khi truyền giá trị nào thì mất giá trị đó hoặc xác suất nhiễu thông tin trên kênh truyền lớn hơn xác suất nhận được. Đặc trưng: H(X/Y)=H(Y/X)= max Dung lượng: C=0 (Sinh viên tự chứng minh, xem như bài tập) Ví dụ: kênh truyền có ma trận truyền tin như sau: Kênh truyền đối xứng Mô hình: là kênh truyền mà ma trận truyền tin có đặc điểm sau: + Mỗi dòng của ma trận A là một hoán vị của phân phối P={p’1, p’2, , p’L} + Mỗi cột của ma trận A là một hoán vị của Q={q’1, q’2, , q’M} Ví dụ: cho kênh truyền đối xứng có ma trận truyền tin như sau: Xây dựng công thức tính dung lượng kênh truyền đối xứng Do H(Y/X) không phụ thuộc vào phân phối của X => Max của I(X/Y) được quy về mã của H(Y). Hay 64/135
  67. Ta có thể tính dễ dàng: Do đó: Do H(Y) ta cần chứng tỏ “=” xảy ra khi p1=p2= =pL=1/L Xét trường hợp P(X=xi)=1/M, với mọi i => chứng minh P(Y=yj)=1/L với mọi j Thật vậy : Từ A ta nhận thấy: = tổng các phần tử của A.Do => => H(Y) đạt max là logL khi P(Y=yj)=1/L hoặc P(X=xi)=1/M 65/135
  68. Vậy: C= log L – H(p’1, p’2, , p’L ) hay Chú ý: trường hợp kênh 1 bit với nhiễu β Ma trận truyền tin Dung lượng Định lý về dung lượng kênh truyền Giả sử ma trạn A có dạng vuông và có ma trận nghịch đảo là A-1 Ký hiệu A=||pij|| với i=1,2, ,M và j =1,2, ,M 1 A- =||qij|| với i=1,2, ,M và j =1,2, ,M Đặt tham số Nếu dk>0 thì dung lượng kênh truyền có dạng: 66/135
  69. -C Giá trị cực đại đạt khi tín hiệu vào X=X* thỏa phân phối P(X*=xk)=2 dk Hay C=max I(X/Y)=I(X*/Y) Chú ý: - Điều kiện dk>0 cho phép hàm I(X/Y) là hàm lồi => Tồn tại Max tuyệt đối tại phân -C phối của X* với p(X*=xk)=2 dk =pk (với mọi k). - Nếu điều kiện ma trận vuông hoặc ma trận ngịch đảo không thỏa thì giá trị cực đại max sẽ nằm trên đường biên của miền xác định {pk>0 và -Σpk=1} Bài tập Cho một kênh truyền có ma trận truyền tin như sau: Tính dung lượng kênh truyền. Chứng minh các công thức tính dung lượng kênh truyền trên. 67/135
  70. lược đồ giải mã LƯỢC ĐỒ GIẢI MÃ Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Biết đặt vấn đề bài toán giải mã, • Hiểu các khái niệm cơ bản của kỹ thuật truyền tin, • Biết và hiểu các dạng sai số cơ bản của kỹ thuật truyền tin, • Hiểu phương pháp xây dựng lược đồ giải mã tối ưu, • Vận dụng xây dựng lược đồ giải mã tối ưu và tính các dạng xác suất truyền sai. Đặt vấn đề bài toán giải mã Phân tích yêu cầu giải mã: Khi truyền giá trị xi, ta sẽ nhận được yj. Đối với kênh truyền không nhiễu thì yj chính là xi. Đối với kênh truyền có nhiễu thì yj có thể khác xi. Do đó ta cần tìm cách giải mã yj về giá trị xi khi kênh truyền có nhiễu. Phép phân hoạch các giá trị ở đầu nhận: Phép phân hoạch tập các giá trị ở đầu nhập yj thuộc Y là phép phân chia tập Y thành các tập con Bi sao cho: 1. (mọi i ≠ j) 2. Khi nhận yj thuộc Bi thì giải mã về xi. Ví dụ bài toán giải mã Cho tập các từ mã truyền X và tập các dãy n bit nhận được Y như sau: 68/135
  71. X={0000, 0101, 1110, 1011} Y={0000, 0001, 0010, 0011, 0100, 0101, 0110, 0111, 1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111} Giả sử ta có thể phân hoạch tập Y thành các tập con Bi như sau: B1={0000, 1000, 0001, 0010} B2={0101, 1101, 0100, 0111} B3={1110, 0110, 1111, 1100} B4={1011, 0011, 1010, 1001} Giả sử nhận yj = 0011 thì giải mã về x4 = 1011 vì yj thuộc B4. Các khái niệm cơ bản của kỹ thuật truyền tin Xét sơ đồ truyền tin như sau: Diễn giải: • Nguồn phát tín hiệu (hay thông báo) với vận tốc R (tín hiệu/giây). • Tín hiệu được mã hóa từ bộ ký tự mã. • Tín hiệu mã hóa được truyền trên kênh với vận tốc C (ký tự/giây), C đồng thời là dung lượng của kênh truyền. • Tín hiệu truyền trên kênh có thể bị nhiễu với xác suất P(e). • Trước khi nhận, tín hiệu mã hóa được giải mã theo một phương thức tối ưu và độ chính xác cao nhất có thể có. 69/135
  72. Bài toán đặt ra ở đây: tìm giải pháp tạo mã sao cho sai số đầu nhận có xác suất nhỏ hơn ε bất kỳ (ε < P(e)) đồng thời với đồng bộ hóa: vận tốc phát thông báo ở nguồn R và vận tốc truyền tải ≤ C (C là dung lượng kênh). Các khái niệm cơ bản: Từ mã: là dãy n ký tự truyền hay dãy n ký tự nhận đúng. Bộ mã (S,n): là tập hợp gồm S từ mã với độ dài mỗi từ mã đều bằng n và được ký hiệu là x(1), , x(s). Lược đồ giải mã: là một hàm gán cho một dãy n ký tự nhận được yj một từ mã của bộ mã W = {w1, w2, , ws}. Ký hiệu: g(yj) = wi Lược đồ giải mã tối ưu: là lược đồ giải mã sao cho tổng xác suất truyền sai là nhỏ nhất hay tổng xác suất truyền đúng là lớn nhất. * Nghĩa là: khi nhận yj thì ta giải mã về wi sao cho: * P(wi /yj) = Max{P(wk/yj)} mọi wk thuộc W Ví dụ minh họa các khái niệm cơ bản Giả sử kênh truyền từng bit với C=1, nguồn phát thông báo với tốc độ R=2/5 bit/giây (R<C). Để thuận lợi cho mã hóa và giảm nhiễu, ta xét từng khoảng thời gian n = 5 giây. Như vậy trong khoảng thời gian n = 5 giây, ta có: nR • Tập hợp các tín hiệu khác nhau là 2 = 4. Giả sử 4 tín hiệu là m1, m2, m3, m4. • Số bit được phát ra là nR=2 bit và một tín hiệu dạng mi được kết cấu bởi một dãy các bit. • Quá trình mã hóa các tín hiệu m1, m2, m3, m4 cầnchú ý là: mỗi mi cần được mã hóa với số bit tối đa là nC=5 bit. Vậy, ta có thể mã hóa các tín hiệu mi theo 2 cách sau: Cách 1: m1=00000 m2=01101 70/135
  73. m3=11010 m4=10111 Cách 2: m1=00 m2=01 m3=10 m4=11 Nếu sử dụng cách 1 với độ dài 5 bit, trong đó 5 bit có thể hiểu là có 2 bit thông tin cần truyền và 3 bit con lại là 3 bit được bổ sung để phát hiện nhiễu theo một phương pháp nào đó sẽ được đề cập ở các nội dung tiếp theo sau. Với cách mã hóa này, ta có nhiều khả năng phát hiện và sửa sai do nhiễu. Nếu sử dụng cách 2 thì trường hợp có 1 bit truyền sai sẽ dẫn đến trùng lặp sang một trong các tín hiệu khác. Ví dụ truyền m1=00 và nhận 2 bit là 01 (do nhiễu), trong trường hợp này 01 chính là m2, đây là một tín hiệu đúng nên ta không thể phát hiện có nhiễu hay không nhiễu. Như vậy, trong khoảng thời gian truyền và dung lượng kênh cho phép, ta cần mã hóa mỗi tín hiệu càng dài càng tốt nhưng không được vượt quá độ dài mã cho phép. Trường hợp với thời gian n=5 và c= 1 bit thì nC=5 là số bit tối đa có thể truyền nên ta chỉ mã hóa tín hiệu với độ dài mã tối đa là 5 bit. Các dạng sai số cơ bản Xác suất truyền sai từ mã xi: Xác suất truyền sai trung bình: Xác suất truyền sai lớn nhất: 71/135
  74. Phương pháp xây dựng lượt đồ giải mã tối ưu Theo công thức Bayes: Ta có: P(wk/yj) = [p(wk).p(yj/wk)] / p(yj) với (mọi wk thuộc W) Từ định nghĩa lược đồ giải mã tối ưu: ⇒ tìm wk sao cho P(wk/yj) → Max p(wk).p(yj/wk) → Max. Như vậy, ta có thể xây dựng lược đồ giải mã tối ưu theo các bước sau: Bước 0: Khởi tạo các Bi = ϕ (mọi i) Bước lặp: xét với mọi yj thuộc Y + Tính: p(w1).p(yj/w1) p(w2).p(yj/w2) p(wM).p(yj/wM) + So sánh các giá trị tính trên và chọn giá trị w*i sao cho p(w*i).p(yj/w*i)= Max {p(wk).p(yj/wk)} (mọi wk thuộc W) + Bi = Bi + {yj} và g(yj) = w*i. Minh họa xây dựng lược đồ giải mã tối ưu Bài toán: Cho ma trận truyền tin A và xác suất ở đầu truyền như sau: 72/135
  75. Với p(x1)=1/2; p(x2)=p(x3)=1/4. Hãy xây dựng lược đồ giải mã tối ưu. Áp dụng phương pháp xây dựng lược đồ giải mã tối ưu: Bước 0: B1={}; B2={}; B3={}; Bước 1: Nhận giá trị y1, ta tính: + p(x1).p(y1/x1)= 1/2.1/2 = 1/4 (Max) + p(x2).p(y1/x2)= 1/4.1/3 = 1/12 + p(x3).p(y1/x3)= 1/4.1/6 = 1/24 Do p(x1).p(y1/x1) lớn nhất nên liệt kê y1 vào tập hợp B1 tương ứng với x1. => B1={y1}. Bước 2: Nhận giá trị y2, ta tính: + p(x1).p(y2/x1)= 1/2 . 1/3 = 1/6 (Max) + p(x2).p(y2/x2)= 1/4 . 1/6 = 1/24 + p(x3).p(y2/x3)= 1/4 . 1/2 = 1/8 Do p(x1).p(y1/x1) lớn nhất nên liệt kê y2 vào tập hợp B1 tương ứng với x1. => B1={y1, y2}. Bước 3: Nhận giá trị y3, ta tính: + p(x1).p(y3/x1)= 1/2 . 1/6 = 1/12 + p(x2).p(y3/x2)= 1/4 . 1/2 = 1/8 (Max) + p(x3).p(y3/x3)= 1/4 . 1/3 = 1/12 73/135
  76. Do p(x1).p(y2/x1) lớn nhất nên liệt kê y3 vào tập hợp B2 tương ứng với x2. => B2={y3}. Kết quả: Phân hoạch: B1={y1, y2}, B2= {y3} và B3={}. Lược đồ giải mã tối ưu: Minh họa cách tính các sai số Xét lại ví dụ minh họa xây dựng lược đồ giải mã tối ưu trên, ta có: - Ma trận truyền tin A: - Xác suất ở đầu truyền: p(x1)=1/2; p(x2)=p(x3)=1/4. • Lược đồ giải mã tối ưu: 74/135
  77. - Phân hoạch: B1={y1, y2}, B2={y3} và B3={}. Tính các xác suất truyền sai: Xác suất truyền sai một từ mã: Bài tập 1 Cho ma trận truyền tin sau: Biết xác suất ở đầu truyền: p(x1)=5/10, p(x2)=3/10, p(x3)=2/10. • Tính dung lượng kênh truyền. • Xây dựng lược đồ giải mã tối ưu. • Tính các sai số p(e) và pm(e). Cho ma trận truyền tin sau: 75/135
  78. Biết xác suất ở đầu truyền: p(x1)=1/3, p(x2)=1/3, p(x3)=1/3. • Tính dung lượng kênh truyền. • Xây dựng lược đồ giải mã tối ưu • Tìm các sai số p(e) và pm(e). Bài Tập 2 Cho ma trận truyền tin sau: Biết p(x1)=1/2, p(x2)=1/4, p(x3)=1/4. • Tính dung lượng kênh truyền. • Xây dựng lược đồ giải mã tối ưu. • Tính các sai số p(e) và pm(e). Cho ma trận truyền tin sau: Biết xác suất truyền p(x1)=0.4, p(x2)=0.4, p(x3)=0.2. • Tính dung lượng kênh truyền. • Xây dựng lược đồ giải mã tối ưu. • Tính các sai số p(e) và pm(e). 76/135
  79. nguyên lý khoảng cách nhỏ nhất hamming SỬA LỖI Mục tiêu: Xây dựng nguyên tắc sửa lỗi dựa vào khoảng cách Hamming. Trên nguyên tắc này, phương pháp sửa lỗi “kiểm tra chắn lẻ (parity check)” được xây dựng và tạo ra quy trình sửa lỗi tối ưu và phù hợp với công nghệ truyền tin hiện nay. NGUYÊN LÝ KHOẢNG CÁCH NHỎ NHẤT HAMMING Mục tiêu: Sau khi hoàn tất bài học này bạn có thể hiểu: • Định nghĩa khoảng cách Hamming • Kênh truyền đối xứng nhị phân và lược đồ giải mã tối ưu • Quan hệ giữa xác suất giải mã và khoảng cách Hamming • Nguyên lý khoảng cách nhỏ nhất của Hamming. Khoảng cách Hamming Định nghĩa:cho v1 và v2 là 2 dãy nhị phân dài n bit, ta gọi khoảng cách Hamming giữa 2 dãy v1, v2 là số bit tương ứng khác nhau. Ký hiệu: d(v1, v2). Ví dụ: v1=10101010 v2=10101111 Ta nhận thấy rằng bit thứ 6 và bit thứ 8 giữa giữa v1 và v2 là khác nhau nên số bit tương ứng khác nhau giữa v1 và v2 là 2. Do đó, ta nói khoảng cách Hamming giữa v1 và v2 là 2 hay d(v1, v2) = 2 Kênh truyền đối xứng nhị phân và lược đồ giải mã tối ưu Xét kênh truyền đối xứng nhị phân. Giả sử ta truyền các dãy từ mã nhị phân có độ dài n bits với xác suất truyền sai 1 bit là beta. 1-beta 77/135
  80. Gọi W = {w1, w2, ,ws} là tập s từ mã truyền, độ dài mỗi từ mã đều bằng n bit. n V = {v1, v2, ., v2 } là tập các dãy n bit nhận được ở cuối kênh với W có phân phối đều, xác suất để nhận vj khi truyền wi là p(vj/wi) = pij. * Theo lược đồ giải mã tối ưu ta có: khi nhận vj thì giải mã về wi sao cho: * P(wi /vj) = Max{P(wk/vj)} (∀wi ∈ W) Ta có: P(wk/yj) = [p(wk).p(yj/wk)] / p(yj) với (∀wk ∈ W) => P(wk/yj) → Max p(wk).p(yj/wk) → Max. Do W có phân phối đều nên P(wk/yj) → Max p(yj/wk) → Max * * * Vậy: để tìm wi sao cho P(wi /vj) = Max{P(wk/vj)} ta chỉ cần tìm wi sao cho * P(vj/ wi ) = Max{P(vj/ wk)} (chỉ dựa vào ma trân truyền tin A) Ví dụ kênh truyền đối xứng nhị phân Xét ma trận truyền tin A và xác suất ở đầu truyền như sau: dựa vào lược đồ giải mã tối ưu ta có: • Nhận v1 giải mã về w1 • Nhận v2 giải mã về w3 • Nhận v3 giải mã về w2. 78/135
  81. Quan hệ giữa xác suất giải mã và khoảng cách Hamming Giả sử nhận được v: Xét 2 từ mã w1 và w2 cần chọn để giải mã cho v. Nhận xét: xác suất giải mã càng lớn thì khoảng cách Hamming càng nhỏ. Nguyên lý Hamming Định lý: trên kênh truyền đối xứng nhị phân với s từ mã ở đầu truyền có độ dài n bit, lược đồ giải mã tối ưu có thể thay thế bằng lược đồ giải mã theo khoảng cách Hamming với nguyên lý: nếu nhận được v, ta sẽ giải ra w*i sao cho d(v,w*i)=Min d(v,wk) (với ∀wk ∈ W). Ví dụ: xét bộ mã W={w1=00000, w2=10011, w3=11100, w4=01111} Giả sử nhận được dãy v=01011. ta có: d(v,w1)=3; d(v,w2)=2; d(v,w3)=4; d(v,w4)=1. vậy v được giải về w4 vì khoảng cách Hamming giữa v và w4 là nhỏ nhất. Bài tập 1. Cho bộ mã W={w1=000000, w2=101010, w3=111000, w4=111111} và nhận được dãy v=010111, khi đó giải mã về từ mã nào? diễn giải? 2. Cho bộ mã W={w1=000000, w2=010101, w3=000111, w4=111111} và Nhận được dãy v=010111, khi đó giải mã về từ mã nào? diễn giải? 79/135
  82. Bổ đề về tự sửa lỗi và cận hamming Đặt vấn đề: một từ mã w dài n bit khi được truyền tuần tự từng bit có thể sai e bit. Vấn đề đặt ra là khoáng cách (Hamming) giữa các từ mã và sai số e quan hệ với nhau như thế nào để có thể phân biệt tốt nhất đồng thời tất cả các từ mã? Bổ đề sau xác định quan hệ này. Bổ đề: Xét bộ mã W={w1, w2, , ws} gồm có s từ mã nhị phân dài n bit và 1 số nguyên dương e. Nếu d(wi, wj) _>2e+1 (với mọi i khac j ) Khi đó: tất cả các dãy nhận được v có số bit lỗi 2e (với mọi i khac j ) Khi đó: tất cả các dãy nhận được v có số bit lỗi 2e+1 (với mọi i khac j ). Nếu v có số chữ số bit lỗi 2e (với mọi i khac j ). Chứng minh và minh họa bổ đề Giả sử: d(w, w’) _>2e+1 với mọi i khac j . Nếu w và w’ có cùng khoảng cách đối với dãy v thì d(v,w)=d(v,w’)_> e+1. Vậy , nếu d(v, w*) 2e với mọi i khac j, có khả năng có v, w và w’ với số chữ số lỗi là: d(v,w)=d(v,w’)=e (d(v,w)+ d(v,w’) _> d(w,w’)_>2e). Có thể phát hiện ra các từ mã gần v, nhưng do tồn tại cùng lúc nhiều từ mã gần nhất với v dẫn đến không giải mã được, ngược lại hoàn toàn tương tự. 80/135
  83. Minh họa: d(wi, wj)= 2e+1= 7, e=3 Nếu v∈Bi thì v được giải mã về wi Nếu v∈Bj thì v được giải mã về wj d(wi, wj) = 2e = 8 (e = 4, e - 1=3) nếu v∉Bi , v∉Bj => các điểm cách tâm khoảng cách 3 thì luôn được giải mã, còn các điểm cách tâm 4 thì chỉ phát hiện lỗi chứ không thể giải mã được. Mã 3 chiều (x, y, z) bắt đầu từ gốc 000. Cứ một tín hiệu thay đổi thì mã bị đẩy đi theo 1 cạnh, chẳng hạn: 000 cách 010, 001 bởi 1 cạnh, 011 cách 010, 111 và 001 bởi 1 cạnh. Như vậy, nếu ta chọn w1=010, w2=001, w3=111 thì khoảng cách giữa chúng là 2 d(w1, w2)=d(w1, w3)=d(w2, w3)=2 yvậy nếu có lỗi phát sinh thì chỉ phát hiện chứ không sửa được. Cận Hamming. Đặt vấn đề: trong tổng số 2n dãy nhị nhân dài n bit có thể chọn ra bao nhiêu dãy để tạo thành một bộ mã có thể tự điều chỉnh được e bit lỗi. Định lý cận Hamming cho chúng 81/135
  84. ta xác định số từ mã có độ dài n bit với giả thiết: có khả năng tự sửa được e bit lỗi (điều kiện cần tự sửa lỗi). Định lý: Nếu bộ mã W có s từ mã có độ dài n bit có thể tự sửa được e bit lỗi thì i Ghi chú: Cn = n!/(i!*(n-i)!) Chứng minh: Xét từ mã nhị phân wi có độ dài n bit và có khả năng tự sửa được e bit lỗi. Số dãy vj sai khác với wi từ 0 đến e bit là : Tương ứng với s từ mã, tổng số dãy vj có thể tự sửa lỗi là : (2n là tổng số dãy nhị phân dài n bits). Phân các dạng lỗi Giả sử ta truyền từ mã n bit wi ∈ W ( 1 <_ i <_ s) và nhận được dãy n bit vj ( 1<_ j <_ 2n). Các loại lỗi có thể phát hiện sau: 82/135
  85. Lỗi có thể tự điều chỉnh: Trong trường hợp này tồn tại duy nhất từ mã w*i sao cho d(vj, w*i)= Min d(vj, wk) với mọiwk ∈ W. => vj được giải mã về w*i Lỗi chỉ phát hiện không điều chỉnh được: Trong trường hợp này tồn tại từ mã w*i và w i sao cho d(vj, w*i)= d(vj, w i)=Min d(vj, wk) với mọiwk ∈ W => vj không thể giải mã chính xác. Lỗi không phát hiện được. Trong trường hợp ta giải mã ra w*i nhưng khác với wi đã truyền. Bài tập Cho n=7 và e=2, hãy áp dụng định lý cận Hamming cho biêt số từ mã tối đa của bộ mã W. Cho n=7 và e=2, hãy áp dụng định lý cận Hamming cho biêt số từ mã tối đa của bộ mã W. Hãy cho một ví dụ cụ thể minh họa các trường hợp phân loại lỗi. 83/135
  86. mã kiểm tra chẵn lẻ MÃ KIỂM TRA CHẴN LẺ Mục tiêu: Sau khi hoàn tất bài học này bạn có thể: • Hiểu bộ mã kiểm tra chẵn lẻ, • Hiểu phương pháp kiểm tra chẵn lẻ, • Biết tính chất cơ bản của phương pháp kiểm tra chẵn lẻ, • Hiểu và vận dụng tốt phương pháp sinh mã kiểm tra chẵn lẻ, • Hiểu và vận dụng tốt Định lý quan hệ giữa độ dài mã n, số bit kiểm tra m và số lỗi tự sửa e, • Vận dụng cho các bài học tiếp theo. Bộ mã kiểm tra chẵn lẻ Bộ mã kiểm tra chẵn lẻ là bộ mã gồm s từ mã, trong đó mỗi từ mã có dạng sau: Ghi chú: trong một số trường hợp sinh mã theo phương pháp kiểm tra chẵn lẻ, thứ tự các bit kiểm tra và các bit thông tin có thể xen kẻ nhau (theo một thứ tự nào đó, chẳng hạn như mã Hamming, ) hay cũng có thể theo một thứ tự khác (theo quy ước khác). Ở đây, ta chọn thứ tự các bit kiểm tra chẵn lẻ và các bit thông tin như trên để dễ tính toán nhưng vẫn mất tính tổng quát hóa. Trong đó: w’ viết theo dong là chuyển vị của w (w được viết theo cột) + ri: là bit thứ i của từ mã ( 1<_ i <_ n). + n: độ dài của từ mã hay số bit của từ mã chẵn lẻ. + m: số bit kiểm tra. 84/135
  87. + k = n-m: số bit thông tin => s=2k (vì với k bit thông tin thì ta chỉ có thể biểu diên tối đa 2k trạng thái thông tin k bit). + Đoạn kiểm tra: gồm m bit dùng để kiểm tra mã sai. + Đoạn thông tin: gồm k bit thông tin. Mỗi đoạn mã thông tin có duy nhất một đoạn mã kiểm tra và được xác định bởi hệ phương trình tuyến tính nhị phân sau: Gọi Ma trận A được gọi là ma trận kiểm tra chẵn lẻ có hạng là m (hay Rank(A) = m). Các phép toán trong Modulo 2 (+,-): 0 + 1 = 1 + 0 = 1; 0 – 1 = 1 – 0 = 1; 1 + 1 = 1 – 1 = 0; Phương pháp kiểm tra chẵn lẻ Gọi w’=r1r2 rn là từ mã truyền (hay dãy n bit truyền) và v’=r1r2 rn là dãy n bit nhận được. Qui ước:v’, w’ (lần lượt là chuyển vị của v và w) được viết theo dòng. Còn v, w được viết theo cột. Nếu A.v = 0 thì v = w, ta gọi v là chẵn (trường hợp nhận đúng) Nếu A.v khác 0 thì v khác w, ta gọi v là lẻ (trường hợp nhận sai). Ta gọi z = v-w là bộ lỗi giữa v và w. Nghĩa là tại các vị trí z = {0} thì bit nhận được tương ứng là bit đúng và tại các vị trí z = {1} thì bit nhận được tương ứng là bit sai (hay bit lỗi). 85/135
  88. Ta gọi C = A.v là bộ sửa lỗi (hay bộ điều chỉnh lỗi). Ta có C = A.z = A.(v-w) = A.v-A.w = A.v => C = A.v = A.z Tính chất của bộ sửa lỗi: dãy n bit nhận được v và bộ lỗi tương ứng có cùng bộ điều chỉnh. Phương pháp sinh mã kiểm tra chẵn lẻ Giả sử: cho trước ma trận kiểm tra chẵn lẻ A với Rank(A) = m. Tìm bộ mã chẵn lẻ W={w1, w2, w3, ,ws} Bước 0: Xác định các giá trị n, m, k, s Độ dài của từ mã n= số cột của ma trận A. Số bit kiểm tra m= số dòng của ma trận A. Số bit thông tin: k = n-m. Số từ mã s=2k của bộ mã. Bước i: Tìm các từ mã thứ i (1 từ mã wi Ví dụ sinh mã kiểm tra chẵn lẻ Xây dựng bộ mã kiểm tra chẵn lẻ được sinh từ ma trận kiểm tra A như sau: Bước 0 : 86/135
  89. n=6 (= số dòng của ma trận A) m=3 (= số cột của ma trận A) Số bit thông tin k = n – m = 3 => Số từ mã s=2k=8 từ mã. Bước i: Tìm từ mã thứ i (1<_ i <_ s): w’1=r1r2r3000 (000 là triển khai nhị phân k=3 bits của số i=0) w’1=r1r2r3001 (001 là triển khai nhị phân k=3 bits của số i=1) w’2=r1r2r3010 (010 là triển khai nhị phân k=3 bits của số i=2) w’3=r1r2r3011 (011 là triển khai nhị phân k=3 bits của số i=3) w’4=r1r2r3100 (100 là triển khai nhị phân k=3 bits của số i=4) w’5=r1r2r3101 (101 là triển khai nhị phân k=3 bits của số i=5) w’6=r1r2r3110 (110 là triển khai nhị phân k=3 bits của số i=6) w’7=r1r2r3111 (111 là triển khai nhị phân k=3 bits của số i=7) Giải hệ phương trình A.w1=0 Giải hệ phương trình A.w2=0 Giải tương tự cho các trường hợp còn lại ta có: 87/135
  90. w’0=000000, w’3=110011, w’4=110100, w’5=111101, w’6=001110, w’7=000111. => W={000000, 001001, 111010, 110011, 110100, 111101, 001110, 000111} Định lý quan hệ giữa độ dài mã n, số bit kiểm tra m và số lỗi tự sửa e Điều kiện cần (Cận Hamming): Điều kiện cần để bộ mã chẵn lẻ có độ dài n bit có thể tự sửa được e bit lỗi với k bit thông tin và m bit kiểm tra là: Điều kiện đủ ( ĐK Vasharmov-Gilbert-Sacks): Điều kiện đủ để bộ mã kiểm tra chẵn lẻ có độ dài n bit với m bit kiểm tra chẵn lẻ có thể tự sửa được e bit lỗi là: c Ghi chú: Ví dụ tìm m nhỏ nhất từ n và e Giả sử biết trước n=7 và e=1. Tìm số bit kiểm tra tối thiểu cần thiết của bộ mã chẵn lẻ. Theo định lý điều kiện cần (Cận Hamming): 88/135
  91. Vậy số bit kiểm tra tối thiểu cần thiết là m = 3. Ví dụ tìm e lớn nhất từ m và n Giả sử cho trước m=3, k=2. Tìm số bit lỗi lớn nhất có thể tự sửa e? Theo định lý điều kiện đủ (ĐK Vassharmov-Gilbert-Sacks): Vậy số bit lỗi lớn nhất có thể tự sửa là e = 1. Bài tập Xây dựng bộ mã kiểm tra chẵn lẻ được sinh từ ma trận kiểm tra A như sau: Tìm bộ mã kiểm tra chẵn lẻ được sinh từ ma trận kiểm tra A như sau: Gợi ý giải bài tập 1 & 2: dựa vào phương pháp sinh mã kiểm tra chẵn lẻ và tham khảo ví dụ sinh mã kiểm tra chẵn lẻ. Xét bộ mã kiểm tra chẵn lẻ độ dài 15 bit có thể tự sửa được 1 bit lỗi trên đường truyền, hãy cho biết số bit kiểm tra chẵn lẻ tối thiểu? Xét bộ mã kiểm tra chẵn lẻ độ dài 8 bit với 4 bit kiểm tra chẵn lẻ. Hãy cho biết số lỗi tự sửa tối đa của bộ mã? Gợi ý giải bài tập 3 & 4: dựa vào đinh lý Điều kiện cần (Cận Hamming) và Điều kiện đủ (ĐK Varshamov-Gilbert-Sacks). 89/135
  92. nhóm cộng tính và bộ từ mã chẵn lẻ NHÓM CỘNG TÍNH VÀ BỘ TỪ MÃ CHẴN LẺ Mục tiêu. Sau khi hoàn tất bài học này bạn có thể: Hiểu Khái niệm nhóm cộng tính, Biết các tính chất của bộ mã chẵn lẻ, Vận dụng sinh ma trận kiểm tra chắn lẻ từ bộ mã kiểm tra chẵn lẻ. Vận dụng tốt phương pháp sinh bộ mã kiểm tra chẵn lẻ từ các từ mã độc lập tuyến tính của bộ mã. Khái niệm nhóm cộng tính. Đặt vấn đề: Như chúng ta đã biết, phương pháp sinh mã kiểm tra chẵn lẻ giúp ta sinh bộ mã kiểm tra chẵn lẻ với số từ mã tương ứng là s=2k. Với phương pháp này, ta phải xác định từng từ mã một (bằng cách giải hệ phương trình tuyến tính nhị phân). Giả sử: k=5 ta phải xác định s=25 =32 từ mã hay k=10 ta phải xác định s=210=1024 từ mã, Điều này sẽ mất nhiều thời gian nếu k càng lớn. Vấn đề đặt ra ở đây là tìm ra một phương pháp sinh bộ mã kiểm tra chẵn lẻ nhanh hơn về mặt thời gian. Phương pháp sinh mã kiểm tra chẵn lẻ dựa theo lý thuyết nhóm sẽ giải quyết vấn đề này. Khái niệm nhóm cộng tính: Nhóm G được gọi là một nhóm cộng tính nếu G có các tính chất: Nhóm G là nhóm hoán vị (nhóm Aben) nếu ∀a,b thuộc G=> a + b = b + a. Ví dụ: 90/135
  93. - Tập hợp các số nguyên với phép + thông thường là nhóm Aben. - Tập hợp các số nhị phân có độ dài n bit cùng với phép + trong Modulo 2 tạo thành nhóm Aben. Tính chất của bộ mã chẵn lẻ Tính tương đương của bộ mã nhóm cộng tính và bộ từ mã kiểm tra chẵn lẻ được thể hiện qua 2 định lý sau: Định lý 1: tập hợp các từ mã trong bộ mã kiểm tra chẵn lẻ là một nhóm cộng tính. (Đề nghị sinh viên chứng minh định lý này dựa vào các tính chất của nhóm cộng tính) Định lý 2: Nếu tập hợp W là tập các dãy nhị phân với độ dài các dãy cùng bằng n và W là một nhóm Aben với phép cộng Modulo 2 thì W có thể xem như một bộ mã kiểm tra chẵn lẻ được sinh ra từ ma trận A có dạng như sau: Trong đó: - Ma trận A có m dòng và n cột. - Im : là ma trận đơn vị cấp m. - k: là số dãy nhị phân (hay từ mã) độc lập tuyến tính lớn nhất. - n: là độ dài của từ mã và m = n-k: - bij: được xác định bằng cách dựa vào hệ phương trình tuyến tính (*) và k từ mã độc lập tuyến tính như sau: Đoạn kiểm tra Đoạn thông tin 91/135
  94. Thế k từ mã độc lập tuyến tính vào hệ pt (*) để tìm các bij => ma trận A. Ví dụ minh họa Xét tập hợp M gồm có 8 dãy nhị phân dài 6 bits như sau: r1 r2 r3 r4 r5 r6 w’0 = 0 0 0 0 0 0 w’1 = 1 0 1 0 0 1 w’2 = 1 1 0 0 1 0 w’3 = 0 1 0 1 0 1 w’4 = 0 1 1 0 1 1 (w’1+w’2) w’5 = 1 1 1 1 0 0 (w’1+w’3) w’6 = 1 0 0 1 1 1 (w’2+w’3) w’7 = 0 0 1 1 1 0 (w’1+w’2+w’3) Ta thấy {w1, w2, w3} là tập hợp lớn nhất các từ mã độc lập tuyến tính từ tập hợp M: w’1 = 1 0 1 0 0 1 w’2 = 1 1 0 0 1 0 w’3 = 0 1 0 1 0 1 => n=6 và k=3. => m = n – k = 3. Như vậy: ma trận kiểm tra chẵn lẻ có dạng như sau: 92/135
  95. Vậy ta có thể sử dụng nhóm M như là một bộ mã kiểm tra chẵn lẻ. Phương pháp sinh mã kiểm tra chẵn lẻ nhanh Bước khởi tạo:xác định các giá trị n, m, k, s. Bước 1: sinh k từ mã độc lập tuyến tính (đltt). Bước 2: cộng tổ hợp các từ mã: + Cộng các tổ hợp của 2 từ mã từ k mã đltt => có tổ hợp chập 2 của k từ mã. + Cộng các tổ hợp của k từ mã từ k từ mã đltt => có tổ hợp chập k của k từ mã. Bước 3:Cộng s-1 từ mã đã tìm được để tìm từ mã cuối cùng => tổ hợp chập 0 của k= 1 từ mã. 93/135
  96. Ví dụ sinh mã kiểm tra chẵn lẻ nhanh Tìm bộ mã nhóm khi biết trước ma trận kiểm tra Bước khởi tạo: n = 6, m = 3, k = 3, s = 2k = 8. Bước 1: Sinh k = 3 từ độc lập truyến tính: w’1=001001, w’2=111010, w’3=110100 Bước 2: Cộng tổ hợp các từ mã. + Cộng các tổ hợp 2 từ mã đltt: w’4=w’1+w’2=110011 w’5=w’1+w’3=111101 w’6=w’2+w’3=001110 + Cộng các tổ hợp 3 từ mã đltt: w’7=w’1+w’2+w’3=001111 Bước 3: xác định từ mã cuối cùng: w’0=w’1+w’2+w’3+w’4+w’5+w’6+w’7=000000 Bài tập Sử dụng phương pháp sinh mã nhanh cho bộ mã từ ma trận kiểm tra A như sau: 94/135
  97. Sử dụng phương pháp sinh mã nhanh cho bộ mã từ ma trận kiểm tra A trong các trường hợp sau: 95/135
  98. lược đồ sửa lỗi tối ưu LƯỢC ĐỒ SỬA LỖI TỐI ƯU Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Biết được vấn đề của bài toán, • Hiểu Định nghĩa Hiệp hợp, • Vận dụng để xây dựng lược đồ sửa lỗi theo các hiệp hợp, • Vận dụng để xây dựng lược đồ sửa lỗi thông qua bộ sửa lỗi, • Vận dụng tính Xác suất truyền đúng cho lược đồ sửa lỗi, • Kiến thức đạt được sẽ là cơ sở để các bạn có thể ứng dụng cho việc thiết kế một hệ, thống mã hóa, giải mã và bảo mật thông tin. Đặt vấn đề Trong một hệ thống liên lạc truyền tin, bên cạnh các yêu cầu thiết bị (như nguồn phát, bộ mã hóa, kênh truyền, bộ giải mã, ) đảm bảo tốt cho việc truyền và nhận dữ liệu thì còn có các khía cạnh khác như phương pháp mã hóa và giải mã sao cho tối ưu là phần rất quan trọng trong hệ thống. Vấn đề luôn được đặt ra ở đây là làm thế nào để chỉ ra một phương pháp giải mã tối ưu, có nghĩa là hệ thống phải có khả năng phát hiện và sửa lỗi một cách chính xác nhất có thể có khi nhiễu xảy ra. Đây chính là vấn đề chính được thảo luận trong suốt bài học này. Định nghĩa Hiệp hợp Gọi W={w1, w2, ,ws} là bộ mã kiểm tra chẵn lẻ. V ={v , v , , v } là tập hợp các dãy n bit có thể nhận được ở cuối kênh. 1 2 2n Ta gọi một hiệp hợp của W trong V là tập hợp có dạng z + W (z là bộ lỗi) Ví dụ: Cho ma trận kiểm tra chẵn lẻ sau: Từ A, ta có thể xây dựng được bộ mã tương ứng sau: W={w’0=0000, w’1=0101, w’2=1110, w’3=1011}. 96/135
  99. Ta có thể thấy rằng, các bộ lỗi một bit khác nhau có thể có là z={1000, 0100, 0010, 0001}. Do đó các hiệp hợp ứng với các bộ lỗi 1 bit sẽ là: Trong đó: hiệp hợp i = wi + zi, các bạn có thể xét thêm các bộ lỗi sai 2 bit, 3 bit, để được các hiệp hợp ứng với các bộ lỗi sai 2 bit, 3bit, . Lược đồ sửa lỗi theo các hiệp hợp Bước 1: Lập bảng các hiệp hợp ứng với các bộ lỗi cần thiết • Dòng đầu tiên viết các từ mã wi thuộc W. • Các dòng tiếp theo ứng với cột w0 = 00 00 viết các bộ lỗi z (các bộ lỗi 1 bit, 2 bit, ). • Các dòng ở cột thứ i được xác định bởi z + wi Bước 2: Quá trình giải mã Giải mã: khi nhận v, ta xác định cột thứ i chứa v và giải mã về wi tương ứng. Ví dụ: xây dựng lược đồ sửa lỗi theo các hiệp hợp cho bộ mã được sinh từ ma trận kiểm tra chẵn lẻ sau: Từ A, ta có thể xây dựng được bộ mã tương ứng sau: W={w’0=0000, w’1=0101, w’2=1110, w’3=1011}. Bước 1: Lập bảng các hiệp hợp ứng với các bộ lỗi cần thiết: Ta xây dựng các hiệp hợp ứng với các bộ lỗi sai 1 bit. Vậy z={1000, 0100, 0010, 0001}. 97/135
  100. (Bảng các hiệp hợp) Bước 2: Quá trình giải mã: Giả sử nhận v = 0111. Tra tìm v trên bảng các Hiệp hợp ta có v ở cột 1. Do đó, v được giải mã về w1 = 0101. Giả sử nhận v = 1010. Tra tìm v trên bảng các Hiệp hợp ta có v ở cột 2 hay cột 3. Do đó, v được giải mã về w2 hay w3, trong trường hợp này giải mã không chính xác. Đề nghị các bạn lưu ý và cho ý kiến của bạn về các trường hợp giải mã không chính xác này. Lược đồ sửa lỗi thong qua bộ lỗi Để xây dựng lược đồ sửa lỗi thông qua bộ sửa lỗi, ta dựa vào tính chất của bộ sửa lỗi. Như vậy ta có thể thấy lược đồ giải mã gồm 2 bước sau: Bước 1: Lập bảng sửa lỗi: Bộ lỗi (Z) – Bộ sửa lỗi (C=A*Z). Bước 2: Quá trình sửa lỗi • Khi nhận được dãy n bit v thuộc V, ta xác định bộ điều lỗi C cho v với C=A.v • Tra bảng sửa lỗi để tìm bộ lỗi z0 ứng với C. • Giải mã w=v+z0. Ví dụ minh họa lược đồ sửa lỗi 1 bit Xét bộ mã được sinh từ ma trận Bộ mã tương ứng được xác định là: w1=000000, w2=101101, w3=111010, w4=010111 (Đề nghị các bạn tham khảo phương pháp sinh mã chẵn lẻ và xây dựng lại bộ mã từ ma trận kiểm tra chẵn lẻ A). 98/135
  101. Lược đồ sửa lỗi: Bước 1: Lập bảng sửa lỗi: Bộ lỗi- Bộ điều chỉnh (e = 1) Bộ lỗi (z’) Bộ điều chỉnh (C’=A.z) Bước 2: Quá trình sửa lỗi • Giả sử nhận v=001101, tính C = A.v = 1000 • Tra bảng sửa lỗi để tìm bộ lỗi z0 ứng với C, ta có z0 = 100000 • Giải mã w = v + z0 = 001101 + 100000 = 101101 = w2 Ví dụ minh họa lược đồ sửa lỗi 2 bit Lược đồ sửa lỗi: Bước 1: Lập bảng sửa lỗi: Bộ lỗi- Bộ điều chỉnh (e = 2) 99/135
  102. 010100 0101 (Tất cả các bộ 2 lỗi còn lại có trùng bộ điều chỉnh với các bộ ở trên) Bước 2: Quy trình sửa lỗi • Giả sử nhận v=100111, tính C = A.v = 1100 • Tra bảng sửa lỗi để tìm bộ lỗi z0 ứng với C, ta có z0 = 110000 • Giải mã w = v + z0 = 100111 + 110000 = 010111 = w4 Ví dụ minh họa lược đồ sửa lỗi 3 bit Lược đồ sửa lỗi: Bước 1: Lập bảng sửa lỗi: Bộ lỗi- Bộ điều chỉnh (e = 3) (Tất cả các bộ 3 lỗi còn lại có trùng bộ điều chỉnh với các bộ ở trên) Bước 2: Quy trình sửa lỗi Giả sử nhận v=011001, tính C = A.v = 1101 Tra bảng sửa lỗi để tìm bộ lỗi z0 ứng với C, ta có z0 = 110100 Giải mã w=v + z0 = 011001 + 110100 = 101101 = w2 Chú ý: Tổng số bộ điều chỉnh = 2m. Trong một số trường hợp, bộ mã chẵn lẻ chỉ cho phép phát hiện lỗi trên đường truyền và không thể giải mã chính xác do tổng số bộ điều chỉnh = 2m và số bộ lỗi có thể lớn hơn nhiều (so với tống số bộ điều chỉnh). Xác suất truyền đúng Gọi Ni là số bộ lỗi ứng với i lỗi có thể tự sửa, khi đó xác suất truyền đúng và tự điều chỉnh sẽ là: 100/135
  103. Với n là độ dài từ mã Ví dụ: xét trường hợp các ví dụ trên với n= 6 và tự sửa e = 3 bit lỗi. Áp dụng công thức trên ta có: Bài tập Cho ma trận kiểm tra chẵn lẻ sau: • Xây dựng bộ mã kiểm tra chẵn lẻ. • Minh họa quy trình sửa lỗi 1 bit. Từ kết quả của bài tập 1, hãy minh họa lược đồ sửa lỗi thông qua bộ điều chỉnh trong các trường hợp lỗi 1 bit, 2 bit. Tính xác suất truyền đúng cho các trường hợp có thể tự sửa được. 101/135
  104. mã hamming MÃ HAMMING Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Hiểu Mã Hamming, • Hiểu tính chất của mã Hamming. Mã Hammin Mã Hamming là một dạng mã nhóm (mã kiểm tra chẵn lẻ) được xác định từ ma trận kiểm tra chẵn lẻ A có dạng sau: • Cột thứ j của ma trận A là biểu diễn nhị phân m bit (m là số bit kiểm tra chẵn lẻ) của số j theo qui ước biểu diễn nhị phân của số j được viết theo thứ tự từ dưới lên trên (viết theo cột), tương đương với viết từ trái sang phải (viết theo dòng). • Các bit ở vị trí 2i ( i = 0, 1, 2, ) được chọn làm bit kiểm tra. Ví dụ 1: biểu diễn nhị phân của số j = 3 có m = 3 bit như sau: Viết theo dòng: 011 (viết từ trái sang phải) Viết theo cột: (viết từ dưới lên) Ví dụ 2: ma trận kiểm tra chẵn lẻ với n=6, m=3 có thể viết như sau: 102/135
  105. Từ mã Hamming có dạng: w=r1r2r3r4r5r6. Trong đó, r1r2r4 là các bit kiểm tra và r3r5r6 là các bit thông tin (vì các bit ở vị trí 2i (với i = 0, 1, 2, ) được chọn làm bits kiểm tra). Tính chất Nếu cho trước số bit (m) và số bit lỗi tự sửa (e) thì số bit tối đa của bộ mã Hamming (n) có thể được ước lượng từ bất đẳng thức sau: Ví dụ minh họa Tìm bộ mã Hamming với n = 6 và m =3 Ta có thể viết ngay ma trận kiểm tra chẵn lẻ cho bộ mã Hamming Từ A => k = n – m = 3. Các bit ở các vị trí 1, 2, 4 được chọn làm các bit kiểm tra. => số từ mã của bộ mã Hamming là s = 2k = 8 Tìm k từ mã độc lập tuyến tính có dạng: w’1=r1r20r401 w’2=r1r20r410 w’3=r1r21r400 Giải các hệ phương trình: A.w1=0, A.w2=0, A.w3=0 Các từ mã còn lại được xác định theo phương pháp sinh mã nhanh. Ghi chú: Kết quả chi tiết xây dựng bảng mã Hamming dành cho sinh viên tự làm. Bài tập 103/135
  106. Viết ma trận kiểm tra chẵn lẻ cho bộ mã Hamming với n = 15. Từ kết quả bài tập 1, hãy tìm các từ mã Hamming độc lập tuyến tính tương ứng. Xét bộ mã Hamming với số bit kiểm tra cho trước là m, khi đó: • Độ dài mã tối thiểu là bao nhiêu? • Độ dài mã tối đa là bao nhiêu? 104/135
  107. thanh ghi lùi tưng bước THANH GHI LÙI TỪNG BƯỚC Mục tiêu Sau khi hoàn tất bài học này bạn có thể biết: • Đặt vấn đề về thanh ghi lùi từng bước, • Cách biểu diễn vật lý của thanh ghi, • Cách biểu diễn toán học của thanh ghi, • Tìm chu kỳ của thanh ghi. Đặt vấn đề Như chúng ta đã biết, phương pháp sinh bộ mã kiểm tra chẵn lẻ dựa trên lý thuyết nhóm cho phép chúng ta sinh mã nhanh bằng cách chỉ sinh ra k từ mã độc lập tuyến tính trong tổng số s=2k từ mã, từ k từ mã này ta có thể xác định các từ mã còn lại (bằng cách cộng tổ hợp các từ mã). Vấn đề đặt ra ở đây là làm sao để tìm ra một phương pháp sinh mã khác sao cho số từ mã sinh ban đầu nhỏ hơn k (k là số từ mã độc lập tuyến tính của bộ mã kiểm tra chẵn lẻ) và từ đây ta có thể xác định nhanh các từ mã còn. Cụ thể dựa trên mô hình của thanh ghi lùi từng bước có thể giải quyết được vấn đề này. Biểu diễn vật lý của thanh ghi Để gọi một cách ngắn gọn, ta qui ước gọi thanh ghi thay vì goi thanh ghi lùi từng bước. Biểu diễn vật lý của thanh ghi có thể thấy như hình vẽ dưới đây: • Fm-1, Fm-2, , F1, F0 : các bit lưu trữ dữ liệu nhị phân. • am-1, am-2, , a1, a0 : các công tắc (switch) dùng để đóng (=1) hay mở ( =0 • : là bộ làm tính cộng trong phép toán mudulo 2 sau mỗi xung đồng hồ với dữ liệu do các bit của thanh ghi gửi về. 105/135
  108. Quá trình dịch chuyển lùi từng bước: sau mỗi xung đồng hồ thì dữ liệu trong bit Fi sẽ được chuyển về lưu trữ ở bit Fi-1 (F1-> F0; F2->F1; ; Fm-2->Fm-3; Fm-1->Fm-2). Tất cả các giá trị trên các Fi (trước khi có xung điện) sẽ được chuyển về bộ cộng (tùy theo các công tắc đóng hay mở), tổng của các giá trị này sẽ được đưa vào lưu trữ ở bit Fm-1. Ta sẽ nghiên cứu thanh ghi này cụ thể hơn trong các nội dung tiếp theo nhằm tìm ra một phương pháp sinh mã mà ta có thể gọi là mã xoay vòng. Đây cũng là một dạng mã kiểm tra chẵn lẻ. Biểu diễn toán học của thanh ghi Mục tiêu của việc biểu diễn toán học là để tìm ra các mô hình tính toán phục vụ cho việc nghiên cứu sinh mã xoay vong chẵn lẻ từ thanh ghi. Gọi x = (x0, x1, , xm-2, xm-1) là giá trị các bit của thanh ghi tại thời điểm trước khi có nhịp xung đồng hồ. x’ = (x’0, x’1, , x’m-2, x’m-1) là giá trị các bit của thanh ghi sau khi có nhịp xung đồng hồ. Khi đó ta có: x’0=x1 x’1=x2 x’2=x3 x’m-2=xm-1 x’m-1=a0x0 + a1x1 + + am-1xm-1. Hay viết theo dạng ma trận ta có x’ = T.x Trong đó: 106/135
  109. T được gọi là ma trận đặc trưng của thanh ghi lùi từng bước. Quá trình dịch chuyển lùi từng bước của thanh ghi: Gọi là véc tơ chỉ giá trị của thanh ghi tại thời điểm đang xét. Giá trị của thanh ghi sau 1 xung đồng hồ là x(1)=T.x(0) Giá trị của thanh ghi sau 2 xung đồng hồ là x(2)=T.x(1)=T2.x(0) Giá trị của thanh ghi sau 3 xung đồng hồ là x(3)=T.x(2)=T3.x(0) Ví dụ thanh ghi lui từng bước Cho thanh ghi lui từng bước sau: Từ thanh ghi, ta có: m=4, a0=1, a1=0, a2=1, a3=0. Ma trận đặc trưng của thanh ghi 107/135
  110. Chu kỳ của thanh ghi Như đã trình bày ở trên về quá trình dịch chuyển lùi từng bước của thanh ghi: Giá trị của thanh ghi sau 1 xung đồng hồ là x(1)=T.x(0) Giá trị của thanh ghi sau 2 xung đồng hồ là x(2)=T.x(1)=T2.x(0) Giá trị của thanh ghi sau 3 xung đồng hồ là x(3)=T.x(2)=T3.x(0) Giá trị của thanh ghi sau n xung đồng hồ là x(n)=T.x(n-1)=Tn.x(0) (bởi vì số trạng thái thông tin khác nhau có thể có là 2m) Vậy chu kỳ của thanh ghi là số xung nhịp đồng hồ để thanh ghi lặp lại trạng thái ban đầu. Nghĩa là nếu x(0)khác0 và tồn tại n>0 sao cho x(n) = x(0) thì ta nói n là chu kỳ của thanh ghi. Lưu ý: Cách viết biểu diễn nhị phân cho giá trị của x(i) theo thứ tự từ trên xuống (theo cột), tương ứng với viết từ trái sang phải (theo dòng). Ví dụ: biểu diễn nhị phân của x(i) = 3 có m = 3 bit như sau: Viết theo dòng: x(i) = 011 (viết từ trái sang phải) Viết theo cột: 108/135
  111. (viết từ trên xuống) Ví dụ tìm chu kỳ của thanh ghi Cho thanh ghi lui từng bước như hình sau: 109/135
  112. Tìm chu kỳ: Bài tập Tìm các chu kỳ của thanh ghi lui từng bước như hình sau: Tìm các chu kỳ của thanh ghi lui từng bước như hình sau: 110/135
  113. 111/135
  114. mã xoay vòng MÃ XOAY VÒNG Mục tiêu Sau khi hoàn tất bài học này bạn có thể: • Biết cách xác định ma trận kiểm tra chẵn lẻ cho mã xoay vòng (hay còn gọi là mã vòng), • Hiểu định nghĩa mã xoay vòng, • Vận dụng xây dựng bộ mã xoay vòng, • Vận dụng phương pháp sinh nhanh bộ mã xoay vòng để sinh bộ mã kiểm tra chẵn lẻ. Ma trận kiểm tra chẵn lẻ mã xoay vòng Định nghĩa: ma trận kiểm tra chẵn lẻ được thiết kế từ thanh ghi lùi từng bước là ma trận có dạng sau: A=[x(0)| T x(0)|T2 x(0) | |Tn-1 x(0)] với n là chu kỳ của thanh ghi (n > m) Trong đó: • T là ma trận đặc trưng của thanh ghi. • x(0) ≠ 0: là giá trị khởi tạo của thanh ghi. • n : là chiều dài của từ mã và cũng là chu kỳ của thanh ghi. • m: là số bit kiểm tra hay số bit của thanh ghi. Ví dụ: xét lại ví dụ tìm chu kỳ thanh ghi, nếu chọn giá trị khởi tạo của thanh ghi là x(0) = 1 thì ta có ma trận kiểm tra với chu kỳ n=6 như sau: Định nghĩa mã xoay vòng 112/135