Bài giảng Trí tuệ nhân tạo - Bài 15: Mạng thần kinh nhân tạo (2)

pdf 27 trang Gia Huy 17/05/2022 5320
Bạn đang xem 20 trang mẫu của tài liệu "Bài giảng Trí tuệ nhân tạo - Bài 15: Mạng thần kinh nhân tạo (2)", để tải tài liệu gốc về máy bạn click vào nút DOWNLOAD ở trên

Tài liệu đính kèm:

  • pdfbai_giang_tri_tue_nhan_tao_bai_15_mang_than_kinh_nhan_tao_2.pdf

Nội dung text: Bài giảng Trí tuệ nhân tạo - Bài 15: Mạng thần kinh nhân tạo (2)

  1. TRÍ TUỆ NHÂN TẠO Bài 15: Mạng thần kinh nhân tạo (2)
  2. Nội dung 1. Mạng các perceptron 2. Học sâu (deep learning) 3. Mạng tích chập (CNN) 4. Bộ tự mã hóa (autoencoder) 5. Bắt đầu với học sâu như thế nào? TRƯƠNG XUÂN NAM 2
  3. Phần 1 Mạng các perceptron TRƯƠNG XUÂN NAM 3
  4. Sức mạnh của một perception . Một perception mạnh hơn một cổng logic cơ bản . Ví dụ một perception dùng hàm kích hoạt hardlim, 2 đầu vào, w1 = 1, w2 = 1 . Chọn b = -1.5 ta được cổng AND . Chọn b = -0.5 ta được cổng OR x1 x2 x1 x2 x 1 1 1 1 -1 x1+ x2 x1+ x2 -x b=-1.5 b=-0.5 b=0.5 y y y y = NOT x y = x1 AND x2 y = x1 OR x2 TRƯƠNG XUÂN NAM 4
  5. Hạn chế của một perceptron . Không giải quyết được bài toán XOR TRƯƠNG XUÂN NAM 5
  6. Mạng các perceptron . Các perceptron có thể kết nối với nhau thành mạng lưới và mô phỏng các luật logic TRƯƠNG XUÂN NAM 6
  7. Mạng các perceptron . Đặc tính xấp xỉ vạn năng: mạng neural nhân tạo 1 lớp ẩn có thể xấp xỉ hàm số liên tục bất kỳ . Huấn luyện: lan truyền ngược lỗi TRƯƠNG XUÂN NAM 7
  8. Bản chất việc huấn luyện . Lỗi = hàm đánh giá . Huấn luyện  cực tiểu hóa hàm số . Ý tưởng: đi ngược hướng đạo hàm . Gradient descent . Stochastic gradient descent . Minibatch gradient descent TRƯƠNG XUÂN NAM 8
  9. Phần 2 Học sâu TRƯƠNG XUÂN NAM 9
  10. Học sâu . Bản chất là ANN có nhiều lớp . Tại sao ngày trước không nghĩ đến? . Quy mô mạng quá lớn: một ANN có 1000 đầu vào, 2 lớp ẩn 500 nút, 10 đầu ra sẽ có 2,5 tỉ tham số . Quy mô mạng lớn đòi hỏi công suất tính toán lớn . Sự suy giảm quá nhanh của gradient trong các thuật toán tập huấn . Điều chỉnh: . Kiến trúc mạng . Thuật toán huấn luyện . Ý đồ thiết kế của từng lớp TRƯƠNG XUÂN NAM 10
  11. Học sâu TRƯƠNG XUÂN NAM 11
  12. Phần 3 Mạng tích chập (CNN) TRƯƠNG XUÂN NAM 12
  13. Convolutional Neural Networks . CNN sử dụng 3 ý tưởng chính để điều chỉnh ANN: . LRF (local receptive fields) . Chia sẻ trọng số cùng lớp (shared weights) . Pooling TRƯƠNG XUÂN NAM 13
  14. LRF (local receptive fields) . Thay vì kết nối đầy đủ giữa 2 lớp mạng liên tiếp, một neural ở lớp sau chỉ kết nối với một vùng của lớp trước (gọi là vùng LRF của neural đó) . Trượt LRF qua toàn bộ lớp trước tạo thành lớp sau TRƯƠNG XUÂN NAM 14
  15. LRF (local receptive fields) . Nếu ảnh cỡ 28x28 và vùng LRF cỡ 5x5 thì lớp phía sau sẽ là ma trận perception cỡ 24x24 . Mục đích của LRF: giảm số tham số của mạng hình thành tầng features cơ bản của ảnh TRƯƠNG XUÂN NAM 15
  16. Chia sẻ trọng số cùng lớp . Tất cả các neural thuộc cùng lớp sẽ dùng chung trọng số và bias . Như trong ví dụ trước, tất cả 24x24 neural đều dùng chung ma trận trọng số W và hệ số b (bias) . Như vậy output của neural (j,k) sẽ là . Việc chia sẻ trọng số này đảm bảo tất cả các features của tầng này được xử lý như nhau . Tăng tốc độ tính toán trong trường hợp sử dụng các phép toán ma trận của GPU TRƯƠNG XUÂN NAM 16
  17. Pooling . Tầng pooling nên để ngay sau tầng convolution . Ánh xạ một vùng trên lớp trước thành 1 neural ở lớp sau bởi một hàm giản đơn nào đó (ví dụ: hàm max, hàm average, ) TRƯƠNG XUÂN NAM 17
  18. Pooling . Lớp pooling cho phép giải quyết vấn đề sai lệch (nhỏ) của các feature . Giảm kích cỡ của mạng . Chú ý: max pooling luôn là tốt nhất TRƯƠNG XUÂN NAM 18
  19. Các tầng khác . Các lớp sau cùng của mạng thường là các lớp ANN thông thường, kết nối đầy đủ . Riêng lớp cuối cùng có thể là softmax nếu bài toán là loại phân lớp xác suất TRƯƠNG XUÂN NAM 19
  20. Alex-net . Có model pre-trained sẵn, có thể tải về để sử dụng vào những mục đích khác TRƯƠNG XUÂN NAM 20
  21. Phần 4 Bộ tự mã hóa (autoencoder) TRƯƠNG XUÂN NAM 21
  22. Bộ tự mã hóa TRƯƠNG XUÂN NAM 22
  23. Bộ tự mã hóa . Các layer h, h’ và h’’ thực chất là sự mã hóa của dữ liệu đầu vào . Nói cách khác, hệ thống tự ánh xạ các mẫu trong không gian n chiều đầu vào sang một không gian có số chiều tùy chọn . Kĩ thuật này cho phép giảm số chiều một cách hiệu quả TRƯƠNG XUÂN NAM 23
  24. Phần 5 Bắt đầu với học sâu như thế nào? TRƯƠNG XUÂN NAM 24
  25. Tìm hiểu . Học và hiểu mọi thứ trên giấy . Hoạt động của mạng: truyền thẳng (feed forward), tái phát (recurrent), . Các thuật toán tập huấn: back-propagation, SGD, . Ý nghĩa của các siêu tham số . Các kĩ thuật hiệu chỉnh mạng (khó) . Đừng cố lập trình . Rất phức tạp . Rất dễ sai và khó phát hiện . Tốn nhiều thời gian . Không tái sử dụng được . Trực quan: TRƯƠNG XUÂN NAM 25
  26. Lập trình . Sử dụng các framework có sẵn . Mỗi framework có hay dở riêng . Chọn cái nào phù hợp với khả năng lập trình hiện tại . Không cầu toàn, nếu sau một thời gian thấy không hợp thì chuyển qua cái khác • Dữ liệu hầu như chia sẻ được giữa các framework • Chỉ phải lập trình lại . Hầu hết sử dụng python, các tài liệu cũng vậy . Đề xuất: . Theano (python) . TensorFlow (python) TRƯƠNG XUÂN NAM 26
  27. Lập trình . Nếu không dùng python có thể cân nhắc: . Caffe (C++) . CNTK (C#) . Torch (Lua) . Deeplearning4j (java) . Chú ý: ngoại trừ Theano viết bằng python, các framework khác chủ yếu viết bằng C++ . Nên bắt đầu với một bài toán cụ thể và đủ nhỏ, chẳng hạn MNIST hoặc Iris . Có GPU: tăng tốc độ huấn luyện gấp nhiều lần TRƯƠNG XUÂN NAM 27