10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Với công nghệ phát triển quá nhanh xung quanh chúng ta, đôi khi những quan niệm sai lầm có thể đi vào hiểu biết chung của chúng ta. Trong bài viết này, chúng ta sẽ lùi lại một bước và xem xét một số điều phổ biến nhất mà mọi người mắc phải khi nói về phần cứng máy tính. Đối với mỗi lỗi, chúng tôi sẽ liệt kê những sai lầm phổ biến cũng như lý do tại sao nó không chính xác.

Nếu bạn đã làm quen với công nghệ một thời gian, chắc hẳn đôi lúc bạn đã nghe ai đó so sánh như sau: “CPU A có 4 nhân và tốc độ 4 GHz. CPU B có 6 nhân và tốc độ 3 GHz. Vì 4* 4 = 16 nhỏ hơn 6*3 = 18, CPU B phải tốt hơn”. Đây là một trong những tội lỗi chính của phần cứng máy tính. Có rất nhiều biến thể và thông số nên không thể so sánh CPU theo cách này.

Xét riêng và tất cả những thứ khác đều bằng nhau, bộ xử lý có 6 lõi sẽ nhanh hơn thiết kế tương tự có 4 lõi. Tương tự như vậy, bộ xử lý chạy ở tốc độ 4 GHz sẽ nhanh hơn chip cùng loại chạy ở tốc độ 3 GHz. Tuy nhiên, một khi bạn bắt đầu thêm vào độ phức tạp của chip thực, sự so sánh trở nên vô nghĩa.

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Có những khối lượng công việc thích tần suất cao hơn và những khối lượng công việc khác được hưởng lợi từ nhiều lõi hơn. Một CPU có thể tiêu thụ nhiều năng lượng hơn đến mức việc cải thiện hiệu suất là vô ích. Một CPU có thể có nhiều bộ đệm hơn CPU kia hoặc một đường dẫn được tối ưu hóa hơn. Danh sách các đặc điểm mà phép so sánh ban đầu bỏ sót là vô tận. Xin đừng bao giờ so sánh CPU theo cách này.

Dựa trên quan niệm sai lầm đầu tiên, điều quan trọng là phải hiểu rằng tốc độ xung nhịp không phải là tất cả. Hai CPU trong cùng một loại giá chạy ở cùng tần số có thể có hiệu suất rất khác nhau.

Chắc chắn tốc độ cốt lõi có tác động, nhưng khi bạn đạt đến một điểm nhất định, sẽ có những yếu tố khác đóng vai trò lớn hơn nhiều. CPU có thể dành nhiều thời gian chờ đợi trên các phần khác của hệ thống, vì vậy kích thước và cấu trúc bộ đệm là cực kỳ quan trọng. Điều này có thể giảm thời gian lãng phí và tăng hiệu suất của bộ xử lý.

Kiến trúc hệ thống rộng lớn cũng có thể đóng một vai trò rất lớn. Hoàn toàn có khả năng một CPU chậm có thể xử lý nhiều dữ liệu hơn CPU nhanh nếu kiến trúc bên trong của nó được tối ưu hóa tốt hơn. Nếu bất cứ điều gì, hiệu suất trên mỗi watt đang trở thành yếu tố chi phối được sử dụng để định lượng hiệu suất trong các thiết kế mới hơn.

Đọc thêm:  Cách phát trực tuyến trò chơi PC trên Twitch

Đây là điều đã từng hoàn toàn đúng, nhưng ngày càng trở nên ít đúng hơn mỗi ngày. Chúng ta có xu hướng nhóm một loạt chức năng thành cụm từ “CPU” hoặc “bộ xử lý” trong khi thực tế, đó chỉ là một phần của bức tranh lớn hơn. Xu hướng hiện nay, được gọi là điện toán không đồng nhất, liên quan đến việc kết hợp nhiều yếu tố điện toán lại với nhau thành một con chip duy nhất.

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Nói chung, chip trên hầu hết máy tính để bàn và máy tính xách tay là CPU. Tuy nhiên, đối với hầu hết mọi thiết bị điện tử khác, nhiều khả năng bạn đang xem xét một hệ thống trên chip (SoC).

Một bo mạch chủ máy tính để bàn có thể đủ không gian để dàn trải hàng tá chip riêng biệt, mỗi chip phục vụ một chức năng cụ thể, nhưng điều đó không thể thực hiện được trên hầu hết các nền tảng khác. Các công ty đang ngày càng cố gắng tích hợp nhiều chức năng nhất có thể vào một con chip duy nhất để đạt được hiệu suất và hiệu suất năng lượng tốt hơn.

Ngoài CPU, SoC trong điện thoại của bạn có thể còn có GPU, RAM, bộ mã hóa/giải mã phương tiện, kết nối mạng, quản lý năng lượng và hàng chục bộ phận khác. Mặc dù bạn có thể coi nó như một bộ xử lý theo nghĩa chung, nhưng CPU thực tế chỉ là một trong nhiều thành phần tạo nên một SoC hiện đại.

Gần đây đã có rất nhiều tin đồn về sự chậm trễ của Intel trong việc triển khai nút công nghệ tiếp theo của họ. Khi một nhà sản xuất chip như Intel hoặc AMD thiết kế một sản phẩm, nó sẽ được sản xuất bằng một quy trình công nghệ cụ thể. Số liệu phổ biến nhất được sử dụng là kích thước của các bóng bán dẫn nhỏ tạo nên sản phẩm.

Phép đo này được thực hiện bằng nanomet và một số kích thước quy trình phổ biến là 14nm, 10nm, 7nm và 3nm. Sẽ hợp lý nếu bạn có thể lắp hai bóng bán dẫn trên quy trình 7nm có cùng kích thước với một bóng bán dẫn trên quy trình 14nm, nhưng điều đó không phải lúc nào cũng đúng. Có rất nhiều chi phí hoạt động, vì vậy số lượng bóng bán dẫn và do đó sức mạnh xử lý không thực sự mở rộng theo quy mô công nghệ.

Đọc thêm:  Hướng dẫn định giá & điểm chuẩn của 44 card đồ họa đã qua sử dụng

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Nguồn: IC Insights

Một cảnh báo khác có khả năng lớn hơn là không có hệ thống tiêu chuẩn hóa để đo lường như thế này. Tất cả các công ty lớn đã từng đo lường theo cùng một cách, nhưng giờ đây họ đã chuyển hướng và mỗi cách đo lường theo một cách hơi khác. Tất cả điều này để nói rằng kích thước tính năng của chip không nên là thước đo chính khi thực hiện so sánh. Chừng nào hai con chip gần như trong cùng một thế hệ, thì con chip nhỏ hơn sẽ không có nhiều lợi thế.

Khi so sánh CPU với GPU, sự khác biệt lớn nhất là số lượng lõi mà chúng có. CPU có một vài lõi rất mạnh, trong khi GPU có hàng trăm hoặc hàng nghìn lõi kém mạnh hơn. Điều này cho phép họ xử lý song song nhiều công việc hơn.

Giống như cách CPU lõi tứ của một công ty có thể có hiệu suất rất khác so với CPU lõi tứ của công ty khác, điều này cũng đúng với GPU. Không có cách nào tốt để so sánh số lượng lõi GPU giữa các nhà cung cấp khác nhau. Mỗi nhà sản xuất sẽ có một kiến trúc rất khác nhau khiến cho loại số liệu này gần như vô nghĩa.

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Ví dụ: một công ty có thể chọn ít lõi hơn nhưng thêm nhiều chức năng hơn, trong khi một công ty khác có thể thích nhiều lõi hơn với mỗi lõi có chức năng giảm bớt. Tuy nhiên, cũng giống như CPU, việc so sánh giữa các GPU từ cùng một nhà cung cấp và trong cùng một dòng sản phẩm là hoàn toàn hợp lệ.

Khi một con chip hoặc siêu máy tính hiệu suất cao mới được ra mắt, một trong những điều đầu tiên được quảng cáo là nó có thể xuất ra bao nhiêu FLOP. Từ viết tắt của các phép toán dấu phẩy động trên giây và đo lường số lượng hướng dẫn có thể được thực hiện bởi một hệ thống.

Điều này có vẻ đủ đơn giản, nhưng tất nhiên, các nhà cung cấp có thể chơi với các con số để làm cho sản phẩm của họ có vẻ nhanh hơn thực tế. Ví dụ: tính toán 1.0 + 1.0 dễ dàng hơn nhiều so với tính toán 1234.5678 + 8765.4321. Các công ty có thể gây rối với loại tính toán và độ chính xác liên quan của chúng để thổi phồng con số của họ.

Đọc thêm:  Lịch sử của bộ vi xử lý và máy tính cá nhân, Phần 4

Nhìn vào FLOP cũng chỉ đo hiệu suất tính toán thô của CPU/GPU và bỏ qua một số yếu tố quan trọng khác như băng thông bộ nhớ. Các công ty cũng có thể tối ưu hóa các điểm chuẩn mà họ chạy để ưu tiên các bộ phận của họ một cách không công bằng.

Hầu như tất cả các hệ thống nhúng và công suất thấp đều được cung cấp bởi một số dạng bộ xử lý ARM. Tuy nhiên, điều quan trọng cần lưu ý là ARM không thực sự tạo ra chip vật lý. Thay vào đó, họ thiết kế các bản thiết kế về cách thức hoạt động của những con chip này và để các công ty khác xây dựng chúng.

Ví dụ: A13 SoC trong iPhone mới nhất sử dụng kiến trúc ARM nhưng được thiết kế bởi Apple. Nó giống như đưa cho tác giả một cuốn từ điển và yêu cầu họ viết gì đó. Tác giả có các khối xây dựng và phải tuân thủ các nguyên tắc về cách sử dụng các từ, nhưng họ có thể tự do viết bất cứ điều gì họ muốn.

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Bằng cách cấp phép sở hữu trí tuệ (IP), ARM cho phép Apple, Qualcomm, Samsung và nhiều hãng khác tạo ra chip của riêng họ phù hợp nhất với nhu cầu của họ. Điều này cho phép chip được thiết kế cho TV tập trung vào mã hóa và giải mã phương tiện, trong khi chip được thiết kế cho chuột không dây sẽ tập trung vào mức tiêu thụ điện năng thấp.

Chip ARM trong chuột không cần GPU hay CPU cực mạnh. Bởi vì tất cả các bộ xử lý dựa trên ARM đều sử dụng cùng một bộ thiết kế và bản thiết kế cốt lõi, nên tất cả chúng đều có thể chạy các ứng dụng giống nhau. Điều này làm cho công việc của nhà phát triển dễ dàng hơn và tăng khả năng tương thích.

ARM và x86 là hai kiến trúc tập lệnh chiếm ưu thế xác định cách thức hoạt động và tương tác của phần cứng máy tính. ARM là vua của hệ thống nhúng và di động, trong khi x86 kiểm soát thị trường máy tính xách tay, máy tính để bàn và máy chủ. Có một số kiến trúc khác, nhưng chúng phục vụ nhiều ứng dụng thích hợp hơn.

Khi nói về kiến trúc tập lệnh, điều đó đề cập đến cách bộ xử lý được thiết kế bên trong. Nó giống như dịch một cuốn sách sang một ngôn ngữ khác. Bạn có thể truyền đạt những ý tưởng giống nhau, nhưng bạn chỉ cần viết chúng ra theo một cách khác. Hoàn toàn có thể viết một chương trình và biên dịch nó theo một cách để chạy trên bộ xử lý x86 và một cách khác để chạy trên ARM.

Đọc thêm:  Những người chỉ chơi một trò chơi điện tử

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

ARM đã khác biệt với x86 theo một số cách chính, điều này đã cho phép họ thống trị thị trường di động. Điều quan trọng nhất là tính linh hoạt và phạm vi cung cấp công nghệ rộng lớn của họ. Khi xây dựng CPU ARM, gần như là kỹ sư đang chơi với Legos. Họ có thể chọn và chọn bất kỳ thành phần nào họ muốn để xây dựng CPU hoàn hảo cho ứng dụng của họ. Cần một con chip để xử lý nhiều video? Bạn có thể thêm vào một GPU mạnh hơn. Cần chạy nhiều bảo mật và mã hóa? Bạn có thể thêm vào máy gia tốc chuyên dụng. Việc ARM tập trung vào việc cấp phép công nghệ của họ hơn là bán chip vật lý là một trong những lý do chính khiến kiến trúc của họ được sản xuất rộng rãi nhất. Mặt khác, Intel và AMD đã bị đình trệ trong lĩnh vực này, điều này đã tạo ra khoảng trống mà ARM nắm quyền kiểm soát.

Intel thường được liên kết với x86 và trong khi họ tạo ra nó, bộ xử lý AMD chạy cùng một kiến trúc. Nếu bạn thấy x86-64 được đề cập ở đâu đó, thì đó chỉ là phiên bản 64-bit của x86. Nếu bạn đang chạy Windows, bạn có thể thắc mắc tại sao lại có “Tệp chương trình” và “Tệp chương trình (x86)”. Không phải các chương trình trong thư mục đầu tiên không sử dụng x86, chỉ là chúng là 64 bit trong khi các chương trình trong “Tệp chương trình (x86)” là 32 bit.

Một lĩnh vực khác có thể gây nhầm lẫn giữa ARM và x86 là hiệu suất tương đối của chúng. Thật dễ dàng để nghĩ rằng bộ xử lý x86 luôn nhanh hơn bộ xử lý ARM và đó là lý do tại sao chúng ta không thấy bộ xử lý ARM trong các hệ thống cao cấp hơn. Mặc dù điều đó thường đúng (cho đến bây giờ), nhưng nó không thực sự là một sự so sánh công bằng và nó thiếu điểm. Toàn bộ triết lý thiết kế của ARM là tập trung vào hiệu quả và mức tiêu thụ điện năng thấp. Họ để x86 chiếm lĩnh thị trường cao cấp vì họ biết rằng họ không thể cạnh tranh ở đó. Trong khi Intel và AMD tập trung vào hiệu suất tối đa với x86, thì ARM đang tối đa hóa hiệu suất trên mỗi Watt.

Đọc thêm:  Làm chủ tìm kiếm Gmail

Trong vài năm qua, chúng ta đã chứng kiến sự gia tăng mạnh mẽ về hiệu suất và mức độ phổ biến của GPU. Nhiều khối lượng công việc thường chạy trên CPU đã chuyển sang GPU để tận dụng tính song song của chúng. Đối với các tác vụ có nhiều phần nhỏ có thể được tính toán cùng lúc, GPU nhanh hơn nhiều so với CPU. Tuy nhiên, điều đó không phải lúc nào cũng đúng và đó là lý do chúng ta vẫn cần CPU.

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Để sử dụng hợp lý CPU hoặc GPU, nhà phát triển phải thiết kế mã của họ với các trình biên dịch và giao diện đặc biệt được tối ưu hóa cho nền tảng. Các lõi xử lý bên trong GPU, có thể có hàng nghìn lõi, rất cơ bản so với CPU. Chúng được thiết kế cho các hoạt động nhỏ được lặp đi lặp lại nhiều lần.

Mặt khác, các lõi trong CPU được thiết kế cho rất nhiều hoạt động phức tạp. Đối với các chương trình không thể chạy song song, CPU sẽ luôn nhanh hơn nhiều. Với một trình biên dịch phù hợp, về mặt kỹ thuật có thể chạy mã CPU trên GPU và ngược lại, nhưng lợi ích thực sự chỉ đến nếu chương trình được tối ưu hóa cho nền tảng cụ thể. Nếu bạn chỉ nhìn vào giá cả, những CPU đắt nhất có thể có giá 50.000 đô la mỗi chiếc trong khi các GPU hàng đầu chỉ bằng một nửa. Tóm lại, CPU và GPU đều vượt trội trong các lĩnh vực riêng của chúng và không nhất thiết phải nhanh hơn hoàn toàn so với loại kia.

Một trong những đại diện nổi tiếng nhất của ngành công nghệ là Định luật Moore. Theo quan sát, số lượng bóng bán dẫn trong một con chip đã tăng gấp đôi sau mỗi 2 năm. Nó đã chính xác trong 40 năm qua, nhưng chúng ta đang ở giai đoạn cuối và việc mở rộng quy mô không diễn ra như trước đây.

Nếu chúng ta không thể thêm nhiều bóng bán dẫn hơn vào chip, người ta nghĩ rằng chúng ta có thể làm cho chúng lớn hơn. Hạn chế ở đây là cung cấp đủ năng lượng cho chip và sau đó loại bỏ nhiệt mà nó tạo ra. Các con chip hiện đại hút dòng điện hàng trăm Ampe và tạo ra nhiệt hàng trăm Watt.

svg+xml,%3Csvg%20xmlns= 10 Quan Niệm Sai Lầm Lớn Về Phần Cứng Máy Tính

Đọc thêm:  Máy tính MicroATX cực kỳ mạnh mẽ

Các hệ thống cung cấp năng lượng và làm mát ngày nay đang phải vật lộn để theo kịp và gần đạt đến giới hạn của những gì có thể cung cấp năng lượng và làm mát. Đó là lý do tại sao chúng ta không thể đơn giản tạo ra một con chip lớn hơn.

Nếu chúng ta không thể tạo ra một con chip lớn hơn, liệu chúng ta có thể làm cho các bóng bán dẫn trên chip nhỏ hơn để tăng thêm hiệu suất không? Khái niệm đó đã có giá trị trong vài thập kỷ qua, nhưng chúng ta đang tiến gần đến giới hạn cơ bản về mức độ mà các bóng bán dẫn nhỏ có thể đạt được.

Với quy trình 7nm mới và 3nm trong tương lai, các hiệu ứng lượng tử bắt đầu trở thành một vấn đề lớn và các bóng bán dẫn ngừng hoạt động bình thường. Vẫn còn một chút không gian để thu hẹp lại, nhưng nếu không có sự đổi mới nghiêm túc, chúng ta sẽ không thể thu nhỏ hơn nữa. Vì vậy, nếu chúng ta không thể tạo ra những con chip lớn hơn nhiều và chúng ta không thể làm những bóng bán dẫn nhỏ hơn nhiều, thì liệu chúng ta có thể làm cho những bóng bán dẫn hiện có đó chạy nhanh hơn không? Đây là một lĩnh vực khác đã mang lại lợi ích trong quá khứ, nhưng không có khả năng tiếp tục.

Mặc dù tốc độ của bộ xử lý tăng lên sau mỗi thế hệ trong nhiều năm, nhưng nó đã bị mắc kẹt trong phạm vi 3-5GHz trong thập kỷ qua. Điều này là do sự kết hợp của một số thứ. Rõ ràng là nó sẽ làm tăng mức sử dụng năng lượng, nhưng vấn đề chính lại liên quan đến những hạn chế của các bóng bán dẫn nhỏ hơn và các định luật vật lý.

Khi chúng tôi làm cho các bóng bán dẫn nhỏ hơn, chúng tôi cũng phải làm cho các dây kết nối chúng nhỏ hơn, điều này làm tăng điện trở của chúng. Theo truyền thống, chúng ta có thể làm cho các bóng bán dẫn hoạt động nhanh hơn bằng cách đưa các thành phần bên trong của chúng lại gần nhau hơn, nhưng một số đã được phân tách chỉ bằng một hoặc hai nguyên tử. Không có cách nào dễ dàng để làm tốt hơn.

Tổng hợp tất cả những lý do này lại với nhau, rõ ràng là chúng ta sẽ không thấy kiểu nâng cấp hiệu suất thế hệ trước, nhưng hãy yên tâm rằng có rất nhiều người thông minh đang làm việc về những vấn đề này.