mat ong nguyen chat barrie tu dong cong inox tu dong cong xep inox tu dong

Trang chủ/Giải pháp/ Các phương pháp thiết kế hệ thống dành cho quy mô có thể thay đổi (tiếp)

Các phương pháp thiết kế hệ thống dành cho quy mô có thể thay đổi (tiếp)

Thay đổi quy mô máy chủ đòi hỏi hiểu biết sâu sắc về bộ xử lý phức, các kiến trúc bus bộ nhớ- cổng vào/ra- bộ xử lý, và thiết kế kênh máy chủ. Ví dụ, trong Hình 2, nếu máy chủ System x3650 được sử dụng như một nút điện toán, thì hệ thống này có hai kênh vào/ra gen1 x8 và gen1 x4 PCI-e nằm giữa các giao diện tích hợp dual-GB Ethernet và bộ kiểm soát một chuỗi những đĩa độc lập dư thừa (RAID) cũng như vài đặc trưng sẵn có. Bởi vậy, với System x3650, một cấu hình có thể là bộ tích hợp mạng hai cổng 10GE trên khe cắm bus x8 cho HSI, một Fibre Channel HBA hai cổng x8 8G trên một khe cắm x8, và một bộ tích hợp mạng một cổng 10GE trên mỗi khe cắm PCI-e x4 còn lại cho giao diện mạng máy khách.

33

Cấu hình này cung cấp 20Gbps hai chiều đến kết nối máy khách, 16Gbps đến lưu trữ SAN, và 20 Gbps đến HSI để phân cụm và sử dụng hai giao diện mạng mở rộng Ethernet được cài đặt sẵn cho các giao diện RAID. Cấu hình đặc biệt này loại bỏ giải thông ra ngoài các kênh vào/ra PCI-e 24 gen1 2.5Gbps, nó có tổng bằng 60Gbps (trong đó, có 20Gbps dành cho máy khách, 20Gbps dành cho cụm HSI, 2Gbps dành cho quản trị, và 12Gbps điều khiển RAID nội = 60Gbps).

Đảm bảo giải thông cho các giao diện vào/ra trong các bộ xử lý phức là một khởi đầu tuyệt vời và còn hơn cả sự tính toán. Cần có một chú ý đặc biệt ở đây là tất cả các PSI-e, gigE/10GE, và kênh Fibre đều được chuyển đổi hai chiều, bởi vậy chúng phải có khả năng truyền và nhận dữ liệu đồng thời. Như vậy, tổng số giải thông trong hệ thống này là 120Gbps, vượt quá giải thông bộ nhớ một cách đáng kể, như bạn đã thấy.

Nghiên cứu sâu hơn về các kênh vào/ra và cấu hình của HBAs, HCAs, và bộ tích hợp mạng để sử dụng giải thông một cách tốt nhất, bạn cần kiểm tra kỹ giải thông bộ nhớ, độ trễ và quy mô bộ xử lý. Giải thông bộ nhớ có thể trở thành một nút cổ chai (nút tắc nghẽn), bởi vì các thông điệp và các cổng vào/ra được lưu trữ, xử lý và gửi tới thường xuyên đến nỗi mà giải thông bộ nhớ đã trở thành một tham số thay đổi quy mô giới hạn. Trong ví dụ với máy chủ System x3650, theo Hướng dẫn người sử dụng, nó hỗ trợ 12 bộ đệm đầy đủ PC2-5300 DIMMs, là DDR2-667 với chu kỳ thời gian là 6 ns, hỗ trợ bus vào/ra 333MHz, với khả năng truyền 667 triệu dữ liệu 1 giây, hoặc 5,333GB/giây. Đây thực chất là 53,33Gbps và nó xấp xỉ bằng khoảng một cổng vào/ra bán song công (half-duplex) của 60Gbps. Rõ ràng, với hệ thống này và các kế hoạch cẩn thận, bạn có thế sử dụng tất cả các khả năng của bộ nhớ. Trường hợp lý tưởng, nó sẽ là một nút cổ chai, giả sử bạn duy trì các kênh vào/ra gần bão hòa ở kênh bán song công, và giữ mã chạy hầu hết bên ngoài vùng nhớ, và hầu hết DMA được ánh xạ trực tiếp vào trong và bên ngoài bộ nhớ – những vùng đệm hạt nhân.

IBM cung cấp một vài tài liệu và công cụ cho các hệ thống BladeCenter và các máy chủ System x (xem Tài nguyên). Việc đo lường giải thông bộ nhớ thực tế cũng như tham khảo các đặc điểm kỹ thuật là rất hữu ích, và các công cụ dành cho việc này cũng như các danh mục đo lường có thể tìm thấy trên trang Web cá nhân của Tiến sĩ Bandwith (xem Tài nguyên). Thay đổi quy mô bộ xử lý được đo lường tốt nhất bằng điểm chuẩn của các thuật toán phức tạp nhất, nó sẽ vận hành trên dữ liệu đưa vào và đưa ra ngoài bộ nhớ trên các dòng tốc độ và dựa trên số lượng các luồng hoặc các cổng vào/ra không đồng bộ và xử lý các tình huống mà các máy phục vụ cần phải cung cấp cho các máy khách. Thực sự là không thể thay thế việc thực thi ít nhất các thuật toán hạt nhân trên các nốt SMP dự định để ước tính các yêu cầu xử lý. Có rất nhiều công cụ đã tồn tại để phân tích các kết quả, bao gồm các công cụ định hình như VTune và các công cụ tải bộ xử lý màn hình cơ bản (xem Tài nguyên).

Như đã trình bày ở Hình 2, băng thông cụm máy chủ đến và đi từ mỗi nút SMP thích đáng là cần thiết để gửi và đồng bộ hoá thông điệp trong tính toán song song cũng như các hệ thống tệp song song nói chung của IBM (xem Tài nguyên). Một trong các quyết định then chốt là hệ thống tệp cụm máy chủ mà bạn sẽ sử dụng. Cuốn sách trắng “Giới thiệu GPFS Phiên bản 3.2 của IBM”, cung cấp sự khái quát rất tốt về cấu hình hệ thống phân cụm máy khách của cả cụm máy chủ SAN lẫn đầu nối/cổng vào NAS. Cụm máy chủ được xây dựng vì rất nhiều lý do, bao gồm:

  • Quy mô điện toán: Chia nhỏ các thuật giải thành từng phần con, tính toán các kết quả trung gian, và kết hợp các kết quả từ nhiều nốt SMP thông qua các cơ cấu gửi thông điệp và đồng bộ hoá phân tán
  • Tính sẵn sàng cao: Quá trình tái lập của các dịch vụ tệp NAS cho các máy khách nhằm đảm bảo truy cập để lưu trữ dữ liệu bất chấp khả năng có các thời điểm máy chủ không vận hành
  • Quy mô cổng vào/ra: Dành cho các ứng dụng tập trung nhập xuất giao tiếp với SAN RAID để tăng băng thông cổng vào/ra lên
  • Quy mô dịch vụ máy khách: Để dễ dàng đảm nhiệm thêm các yêu cầu dịch vụ máy khách đồng thời từ một cụm máy chủ

Các kĩ năng, năng lực, công cụ, và kĩ thuật cho các quy mô phân cụm máy chủ vượt ra khỏi phạm vi của bài viết này, không như quy mô lưới và quy mô trung tâm điện toán mây. Dù sao, thực tiễn tốt với nút tính toán SMP sẽ cung cấp khung giàn tốt cho các kiến trúc quy mô bậc cao này. Bạn có thể tìm thấy rất nhiều tài nguyên để hỗ trợ với quy mô phân cụm máy chủ trong Tài nguyên sau khi bạn đã có được các định nghĩa về quy mô phân cụm vừa kể tới.

Như đã thể hiện trong Hình 1, các cụm máy chủ cung cấp quy mô cổng vào/ra, bộ xử lý, và thiết bị lưu trữ nhưng thông thường nó không qui định các phương thức quản lý sự thay đổi quy mô, các phương thức quản lý phía máy khách, hay bảo mật. Quy mô một cơ sở hạ tầng đầy đủ, bao gồm nhiều dịch vụ có thể được chứa trên nhiều cụm máy chủ hay các máy chủ và khách SMP sử dụng các dịch vụ này, là lĩnh vực của điện toán lưới. Điện toán lưới có liên quan với:

  • Ảo hoá tài nguyên: Đối với thiết bị lưu trữ, mạng, và các bộ xử lý thông qua hệ thống đĩa ảo, quản lý đa tuyến giao diện mạng, và các máy ảo
  • Các cổng giao điện người dùng: Bao gồm các định nghĩa để truy cập Web an toàn như Ngôn ngữ Đặc tả Dịch vụ Web (WSDL – Web Services Description Language) và Giao thức Truy cập Đối tượng Đơn giản (SOAP – Simple Object Access Protocol)
  • Quản trị hệ thống: Bao gồm các tính năng dự phòng và tự trị cho hệ quản trị của tài sản IT

Bài viết này không thể bao quát đầy đủ về quy mô lưới, nhưng IBM Research Journal cung cấp các nghiên cứu sâu, và nhiều công cụ lưới cũng sẵn có từ IBM (xem Tài nguyên). Tương tự, điện toán đám mây, là một công nghệ khá mới nhưng đang phát triển mạnh mẽ cũng nằm ngoài phạm vi của bài viết. Nhưng dù sao, khái niệm cơ bản về điện toán đám mây nhằm cung cấp HaaS (Hardware as a Service – Phần cứng như dịch vụ), và SaaS (Software as a Service – Phần mềm như dịch vụ), được tạo điều kiện bằng cách xây dựng SMP có thiết kế tốt và các máy chủ cụm trong kiến trúc lưới tạo ra những các ứng dụng hữu ích nói chung cho người dùng trên mạng. Ví dụ, tất cả các ứng dụng từ lịch chia sẻ, điều khiển và quản lý phiên bản mã nguồn, thư điện tử, và nhiều môi trường cho mạng xã hội đã sinh ra từ các ứng dụng Web. Xu hướng này đang lớn dần và bắt đầu được áp dụng vào cả các ứng dụng máy tính cá nhân cầm tay (HPC).

Chi phí của quy mô không chỉ là chi tiết tiền vốn để bổ xung khả năng xử lý mới, các kênh vào/ra bộ nhớ, thiết bị lưu trữ, hay hệ thống mạng — mà còn là chi phí để cung cấp năng lượng, làm mát, đặt chỗ, và quản lý các tài nguyên mới này. Mặc dù kiến trúc lưới và điện toán tự trị có thể trợ giúp quy mô quản lý, yếu tố xanh của các hệ thống con và các thành phần là then chốt để hạ thấp chi tiêu của quá trình. Nhiều xu hướng cũng hữu dụng, bao gồm lưu trữ tốn ít điện năng hơn sử dụng các ổ đĩa ngắn hạn thể rắn (SSD – solid state disk) và các dãy đĩa dạng nhỏ.

Cũng giống vậy, cuộc chạy đua không nao núng để tốc độ xung cao hơn của các bộ xử lý đã cung cấp rất nhiều lõi với thiết kế và phương pháp quy mô SMP tốt hơn cho các nút phân cụm. Cả hai đều giúp hạ giá thành xuống. Hầu hết trường hợp, dự định của khách hàng dựa trên chi phí ban đầu, như là giá tiền trên mỗi Gb, hơn là các tiêu chí giá thành điện năng và hiệu suất, mà sẽ trở nên quan trọng hơn khi hệ thống được mở rộng ra qua các hoạt động lâu dài. Thêm vào đó, việc quản lý và tổng chi phí sở hữu (TCO) cũng là những cân nhắc quan trọng, cùng với các yếu tố xanh.

Tin liên quan