- vừa được xem lúc

Về các phép nhân nhanh được sử dụng trong máy tính

0 0 18

Người đăng: 生きたい

Theo Viblo Asia

Đây là một bài trong series Algorithms.

Mở bài

Chào các bạn, mình lại bắt đầu một series mới không liên quan gì đến chuyên ngành ? Lần này là các thuật toán nhân nhanh được sử dụng trong (phần cứng/mềm) máy tính nhé ? Không chần chừ gì nữa, hãy vào bài thôi!

Bài này có liên quan đến một bài rank S trong Viblo Code nhé ?

Thuật toán nhân cổ điển

Bình thường bạn nhân các số như thế nào? Ví dụ như 123 x 456? Như chúng ta được học ở trên trường, thì phải nhân dần các chữ số, rồi cộng lại theo cột đúng không?

 123
x 456
----- 738 615
492
-----
56088

Trong đó, tạm coi phép nhân từng chữ số có thể được coi là phép cộng. Coi phép cộng là đơn vị cơ bản, chúng ta có thể thấy thuật toán này sử dụng 4+5+6+2=174+5+6+2=17 phép tính toán. Tạm thời bỏ qua các tối ưu liên quan đến caching trong lúc cộng dồn nhé.

Bây giờ để tránh việc phải nhân các số đơn kia, chúng ta chuyển sang tính dưới dạng nhị phân:

 1111011 x 111001000
---------------- 0000000 0000000 0000000 1111011 0000000 0000000 1111011 1111011 1111011
----------------
1101101100011000

Ở đây chúng ta mất 9 phép cộng. Trong trường hợp xấu nhất, chúng ta cần cộng O(n)O(n) (chú ý rằng khi tính asymptotic complexity chúng ta tính với kích cỡ bài toán/số bit của đầu vào nhé). Vậy có cách nào nhân nhanh hơn không?

Thuật toán Karatsuba

Thuật toán này thực ra rất đơn giản. Là một dạng divide-and-conquer, Karatsuba chia nhỏ bài toán của chúng ta ra để tính lẻ:

1111011×111001000=(1100000+11001)×(111000000+1000)=100000×100000×11×1110+100000×11×1000+100000×11001×1110+11001×1000\begin{alignedat}{2} & \mathbf{1111011 \times 111001000} \\ = & (1100000 + 11001) \times (111000000 + 1000) \\ = & 100000\times 100000 \times \mathbf{11 \times 1110} + 100000 \times \mathbf{11 \times 1000} + 100000 \times \mathbf{11001 \times 1110} + \mathbf{11001 \times 1000} \end{alignedat}

Chú ý công thức trên đang ở hệ nhị phân, và các số 0b100000=250b100000=2^5 sinh ra khi chúng ta rightshift higher-order bits của các thừa số. Từ một phép nhân 2 số 9-bit, chúng ta ra được 4 phép nhân 2 số 5-bit kèm 3 phép cộng. Điểm hay ở thuật toán này là chúng ta có thể sử dụng đệ quy và tiếp tục dùng Karatsuba cho các phép toán nhỏ hơn! Cứ như vậy chúng ta sẽ chỉ còn ra các phép cộng, và phép cộng thì nhanh hơn phép nhân (duh.)

Thuật toán này còn có thể tối ưu hơn nữa. Không dùng số nữa mà thay bằng chữ cho ngắn, ta có:

(x1×p+y1)×(x2×p+y2)=x1×x2×p2+y1×y2+((x1+y1)×(x2+y2)x1×x2y1×y2)×p\begin{alignedat}{2} & (x_1 \times p + y_1) \times (x_2 \times p + y_2)\\ =& \mathbf{x_1\times x_2}\times p^2 + \mathbf{y_1\times y_2} + (\mathbf{(x_1 + y_1) \times (x_2+y_2)} - x_1 \times x_2 - y_1 \times y_2)\times p \end{alignedat}

Với công thức mới này chúng ta chỉ phải sử dụng 3 phép nhân và 6 phép cộng.

Vậy độ phức tạp của thuật toán này là gì? Tạm bỏ qua các phép cộng (hì), cứ mỗi lần chia đôi kích cỡ bài toán số lần nhân bị gấp 3. Từ đó số phép toán của chúng ta là

i=0log2(l(n))13i=12(3log2l(n)1)=12(3log23×log3l(n)1)=12(l(n)log231)=O(l(n)log23).\sum_{i=0}^{\log_2(l(n))-1}3^i=\frac{1}{2}(3^{\log_2l(n)}-1)=\frac{1}{2}(3^{\log_23\times\log_3l(n)}-1)=\frac{1}{2}(l(n)^{\log_23}-1)=O(l(n)^{\log_23}).

Nhưng mà từ từ bạn ơi, thuật toán cơ bản kia tuyến tính với kích cỡ đầu vào mà, cái này là polynomial-time rồi???

Đúng là thuật toán cơ bản kia (có tên gọi là shift-and-add) nhanh hơn Karatsuba thật. Tuy nhiên, bây giờ chúng ta sẽ gian lận và thay đổi bài toán một tí nhé: thay vì chỉ nhân 2 số, chúng ta cần nhân 2 đa thức thì sao? Thay hệ thập phân 10i10^i bằng các đơn thức xix^i, ta có bài toán mới:

(x2+2x+3)×(4x2+5x+6)=1×4×x4+1×5×x3+1×6×x2+2×4×x3+2×5×x2+2×6×x3+3×4×x2+3×5×x+3×6.\begin{alignedat}{2} &(x^2 + 2x + 3) \times (4x^2 + 5x + 6)\\ =&\mathbf{1\times 4}\times x^4 + \mathbf{1\times 5}\times x^3 + \mathbf{1\times 6}\times x^2 + \mathbf{2\times 4}\times x^3 + \mathbf{2\times 5}\times x^2 + \mathbf{2\times 6}\times x^3 + \mathbf{3\times 4}\times x^2 + \mathbf{3\times 5}\times x + \mathbf{3\times 6}. \end{alignedat}

Bùm, ngay lập tức thế trận khác ngay. Do không còn là số nữa, bạn không thể sử dụng shift-and-add, mà phải phá tung phép nhân ra như thế này. Coi phép nhân số là phép toán cơ bản, cách tính trên mất n2n^2 phép toán, trong khi sử dụng Karatsuba bạn chỉ mất n1.58n^{1.58} thôi.

Ơ thế bạn đổi bài toán rồi thì còn nói làm gì nữa???

Vấn đề là nhiều lúc bài toán nhân của bạn sẽ phải làm với các số rất lớn. Bình thường kết quả nhân của các bạn có thể vừa một biến 64-bit, thì shift-and-add nhanh là đúng rồi. Thế nếu bây giờ các số của bạn rất lớn thì sao? Ví dụ, khi sử dụng thuật toán RSA trong mã hóa, mỗi số nguyên tố thường là một số 4096-bit, và nhân 2 số như thế với nhau thì chắc chắn là mệt ? Những số to như vậy sẽ được lưu ở nhiều địa chỉ khác nhau (mỗi địa chỉ chứa một giá trị 64-bit), và phép toán xuyên các địa chỉ trong bộ nhớ sẽ tốn thời gian và không gian. Thay vào đó, chúng ta sử dụng thuật toán Karatsuba trên với x=264x=2^{64} và các coefficient là các giá trị được lưu trong từng địa chỉ đó.

Rồi tạm chịu, vậy phép nhân đa thức còn được dùng để làm gì nữa?

Phép nhân đa thức được sử dụng khá nhiều đó nhé ? Ví dụ như trong vật lý/3D modeling trong các game bạn hay chơi chẳng hạn, các particle/model di chuyển theo các đa thức trên hệ trục tọa độ. Hay trong các hệ mật mã (một phần khác mà mình hay tìm hiểu), các đa thức được sử dụng khá nhiều (như RSA có khá nhiều thuật toán phá sử dụng polynomial, hay elliptic curve sử dụng finite field extensions). Nói chung là nhiều lắm.

Thuật toán Fast Fourier Transform

Chú ý: RẤT NHIỀU TOÁN!

Có một thuật toán nhân khác còn nhanh hơn Karatsuba nữa, và nó sử dụng một thuật toán bạn có thể không ngờ tới: đó là Fast Fourier Transform! Thuật toán này sử dụng các phép biến đổi trong một Ring để tăng tốc độ tính toán.

Ring là gì?

Đơn giản thì ring RR là một tập hợp các số (có thể vô hạn) và 2 phép toán, tạm gọi là ++×\times, thỏa mãn khá nhiều tính chất sau đây:

  • Tồn tại các identity i+,i×Ri_+, i_\times\in R cho các phép toán: với mọi xRx\in R:
    • i++x=x+i+=ii_+ + x = x+ i_+ = i
    • i××x=x×x×=xi_\times \times x = x\times x_\times = x
  • Cả 2 phép tính có tính kết hợp: với mọi x,y,zRx, y, z\in R:
    • x+(y+z)=(x+y)+zx + (y + z) = (x + y) + z
    • x×(y×z)=(x×y)×zx\times (y \times z) = (x\times y)\times z
  • Phép cộng có tính giao hoán và nghịch đảo: với mọi x,yRx, y\in R:
    • x+y=y+xx + y = y + x
    • x:x+x=0\exist -x:x + -x = 0
  • Có tính phân phối: với mọi x,y,zRx, y, z\in R:
    • x×(y+z)=x×y+x×zx\times(y+z) = x\times y + x\times z
    • (x+y)×z=x×z+y×z(x + y)\times z = x\times z + y \times z

Các số có multiplicative inverse trong một ring được gọi là unit. Ngoài ra, các số xRx:x×x=0x\in R|\exists x': x\times x'=0 được gọi là zero-divisors trong R.

Chúng ta có thể thấy rằng tập số nguyên Z\mathbb{Z} hay tập số thực R\mathbb{R} đều là các trường hợp đặc biệt của một Ring.

Integers modulo a prime

Tuy nhiên, nếu làm trong tập số nguyên thì không nhanh được ? Chúng ta sẽ sử dụng ring Z/pZ={0,1,,p1}\mathbb{Z}/p\mathbb{Z}=\{0, 1, \dots,p-1\} với các phép toán modulo. Ví dụ, trong Z/5Z\mathbb{Z}/5\mathbb{Z}, thì 2+4=12+4 = 1, và 2×4=32 \times 4 = 3 (do sử dụng modulo 5).

Lựa chọn số nguyên tố nào cho bài toán này? Thực ra bạn có thể chọn bất cứ số nguyên tố nào lớn hơn kích cỡ bài toán, thì kết quả của phép toán sẽ không đổi: ví dụ như trong Z/11Z\mathbb{Z}/11\mathbb{Z}, thì 2×4=82\times 4=8 giống như phép nhân trong Z\mathbb{Z}.

Tuy nhiên, để dễ dàng chúng ta có thể chọn Fermat prime: đó là các số nguyên tố có dạng p=22n+1p=2^{2^n}+1. Một ví dụ là khi n=4n=4, khi đó p=17p=17. Tại sao?

Primitive root of unity

ω\omega là một nn-th root of unity trong ring RR nếu ωn=1\omega^n=1. Ngoài ra, ω\omega là một primitive root of unity nếu:

  • ωn=1\omega^n=1
  • nRn\in R là một unit (tồn tại multiplicative inverse)
  • Với mọi ước nguyên tố tt của nn, ωn/t1\omega^{n/t}-1 khác 0 và không phải một zero-divisor.

Để sử dụng thuật toán FFT, chúng ta cần một primitive 2k2^k-th root of unity với 2k2^k lớn hơn bậc của kết quả phép nhân. Với Fermat prime, tất cả các số trong ring đó đều là 2p12^{p-1}-th ring of unity theo định lý Fermat nhỏ (không phải primitive!) Còn nếu muốn tìm primitive root thì chắc chỉ có cách mò/tìm các số có sẵn trên mạng ?

Discrete Fourier Transform

DFT là một RR-linear mapping DFTω:RnRn\mathrm{DFT}_\omega:R^n\rightarrow R^n tính các giá trị của đa thức ff tại các giá trị mũ của ω\omega:

f(f(1),f(ω),,f(ωn1))f\rightarrow (f(1), f(\omega), \dots, f(\omega^{n-1}))

Chúng ta có thể biểu diễn phép biến đổi tuyến tính này bằng phép toán ma trận: với f=a0+a1x+an1xn1f=a_0 + a_1x+\dots a_{n-1}x^{n-1},

DFTω(f)=[ω0ω0ω0ω0ω1ωn1ω0ωn1ω(n1)n1][a0a1an1]\mathrm{DFT}_\omega(f)= \begin{bmatrix} \omega^0 & \omega^0 & \dots & \omega^0 \\ \omega^0 & \omega^1 & \dots & \omega^{n-1} \\ \vdots & \vdots & \ddots & \vdots \\ \omega^0 & \omega^{n-1} & \dots & \omega^{(n-1)^{n-1}} \end{bmatrix} \begin{bmatrix} a_0 \\ a_1 \\ \vdots \\ a_{n-1} \end{bmatrix}

Trong đó ma trận to đùng bên trái được gọi là Vandemonde matrix VDM(ω)\mathrm{VDM}(\omega).

Để tính Inverse DFT, chúng ta chỉ cần nhân với nghịch đảo của nó:

VDM(ω)1=1nVDM(ω1)\mathrm{VDM}(\omega)^{-1}=\frac{1}{n}VDM(\omega^{-1})

Cách tìm nghịch đảo của 1 số modulo thì sử dụng Extended Euclidean Algorithm, các bạn có thể đọc tại đây.

Tích chập của 2 đa thức

Xin lỗi người đọc vì mấy đoạn này khá khô khan ? Với 2 đa thức f(x)=i=0n1fixif(x) = \sum_{i=0}^{n-1}f_ix^ig(x)=i=0n1gixig(x) = \sum_{i=0}^{n-1}g_ix^i, chúng ta có fng=h(x)=i=0n1hixif *_n g = h(x) = \sum_{i=0}^{n-1}h_ix^i với

hl=j+klmodnfjgk=j=0n1fjgljh_l = \sum_{j+k\equiv l \mod n}f_jg_k = \sum_{j=0}^{n-1}f_jg_{l-j}

Từ công thức trên, chúng ta có thể thấy fngf×gmodxn1f*_n g\equiv f\times g\mod x^n-1, chứng minh để dành cho bạn đọc ? Vì vậy, do chúng ta đã đặt nn là bậc của kết quả, nên fng=f×gf*_ng=f\times g.

Chú ý quan trọng! Một tính chất quan trọng của DFT mà sẽ giúp chúng ta là:

DFTω(fng)=DFTω(f)DFTω(g)\mathrm{DFT}_\omega(f*_n g)=\mathrm{DFT}_\omega(f)\cdot\mathrm{DFT}_\omega(g)

trong đó \cdot là elementwise multiplication.

Ghép tất cả mọi thứ lại...

Từ 2 đa thứ f,gf,g, chúng ta làm các bước đơn giản sau:

f×g=IDFT(DFT(f)DFT(g))f\times g = \mathrm{IDFT}(\mathrm{DFT}(f) \cdot \mathrm{DFT}(g))

Vậy độ phức tạp của thuật toán này là gì?

  • Bước tích chập: tổng nn tích là O(n)O(n)
  • Bước elementwise multiplication 2 kết quả DFT: nn phép nhân là O(n)O(n)
  • DFT và IDFT: 2x rất lâu ? (O(n2)O(n^2)).

Vậy thì bằng với nhân bình thường rồi... Nhưng đừng quên chúng ta có FFT!

Fast Fourier Transform

Phát minh bởi Cooley-Tukey, thuật toán này được sử dụng với các polynomial có bậc là 2n2^n bằng phương pháp divide-and-conquer. Chúng ta chia nhỏ đa thức ff thành 2 đa thức nhỏ hơn, nhưng khác với Karatsuba, chúng ta cắt so le:

f=a0+a1x++a2k1x2k1=a0+a2x2++a2k2x2k2+a1x+a3x3++a2k1x2k1=f0(x2)+xf1(x2)\begin{alignedat}{2} f =& a_0 + a_1x + \dots + a_{2^k-1}x^{2^k-1} \\ =&a_0 + a_2x^2 + \dots + a_{2^k-2}x^{2^k-2} + \\ &a_1x + a_3x^3 + \dots + a_{2^k-1}x^{2^k-1} \\ =&f_0(x^2) + xf_1(x^2) \end{alignedat}

Có thể thấy f0f_0f1f_1 đều là các đa thức bậc 2k12^{k-1}. Chúng ta sẽ đệ quy tính FFT của các hàm đó rồi ráp lại: với

FFT(f0)=[c0,c1,,c2k11]\mathrm{FFT}(f_0) = [c_0, c_1, \dots, c_{2^{k-1}-1}]

FFT(f1)=[d0,d1,,d2k11]\mathrm{FFT}(f_1) = [d_0, d_1, \dots,d_{2^{k-1}-1}]

Chúng ta ra được kết quả cuối

FFT(f)=[b0,b1,,b2k1]\mathrm{FFT}(f) = [b_0, b_1, \dots, b_{2^k-1}]

bằng công thức:

bk=ck+ωkdk, bn+k=ckωkdk; 0k<nb_k = c_k + \omega^kd_k,\; b_{n+k}=c_k - \omega^kd_k; \;\forall 0\le k< n

Phép cộng và trừ kia còn được gọi là butterfly, vì 2 phép tính kia chéo nhìn giống cánh bướm. Bạn có thể nhìn hình tượng cánh bướm ở dưới đây (cẩn thận xem xong quên luôn cả bài, lần đầu tiên mình nhìn cái ảnh này mình thấy hết hiểu tất cả những gì thầy vừa dạy luôn):

Cánh bướm bay luôn hết kiến thức

Vậy độ phức tạp của thuật toán này là gì? Có logn\log n bước đệ quy, và ở mỗi bước có 2i2^i phép FFT con, mỗi phép cần O(n)/2iO(n)/2^i phép toán. Nhân nhân cộng cộng lại chúng ta có độ phức tạp của thuật toán này là O(nlogn)O(n\log n).

Để ý rằng độ phức tạp của toàn bộ phép nhân này bị dominated bởi DFT/FFT (2 bước kia đều nhanh hơn FFT), nên độ phức tạp của thuật toán nhân đa thức này bằng độ phức tạp của FFT.

Fun fact: độ phức tạp này chỉ đúng khi chúng ta nhân các số nguyên, còn nếu nhân số thực thì thực tế là O(nlognloglog2n)O(n\log n\log\log^2n); nếu bạn muốn tìm hiểu thêm tại sao, hay đọc thêm tại link này nhé.

Bonus

Thuật toán này ngoài việc có asymptotic complexity thấp hơn Karatsuba, còn có 1 điểm cộng: chúng ta có thể dễ dàng tính mũ của một đa thức rất nhanh, bằng cách trong quá trình elementwise multiplication, chúng ta thay bằng elementwise exponentiation. Hàm mũ của một số có thể tính nhanh bằng phương pháp cứ bình phương rồi nhân lại với nhau, gần giống với phương pháp shift-and-add ?

Bạn có thể tham khảo implementation của FFT tại đây, mình copy từ đây trong bài Viblo Code của mình :">

Kết bài

Bây giờ bạn đã biết nhân các đa thức nhanh như thế nào rồi đó! Đi làm câu rank S kia đi ?

Thực ra lĩnh vực này khá liên quan đến deep learning, không biết viết xong bài này mình có nghĩ ra gì hay ho không?

And last but not least, thank you Dr. Turner for teaching me this crap, tolerated me fucking up spectacularly in your class, and still give me an A and a distinction in Math. You're the man.

Bình luận

Bài viết tương tự

- vừa được xem lúc

Thuật toán quay lui (Backtracking)

Quay lui là một kĩ thuật thiết kế giải thuật dựa trên đệ quy. Ý tưởng của quay lui là tìm lời giải từng bước, mỗi bước chọn một trong số các lựa chọn khả dĩ và đệ quy.

0 0 51

- vừa được xem lúc

Các thuật toán cơ bản trong AI - Phân biệt Best First Search và Uniform Cost Search (UCS)

Nếu bạn từng đọc các thuật toán trong AI (Artificial Intelligence - Trí tuệ nhân tạo), rất có thể bạn từng nghe qua về các thuật toán tìm kiếm cơ bản: UCS (thuộc chiến lược tìm kiếm mù) và Best First Search (thuộc chiến lược tìm kiếm kinh nghiệm). Khác nhau rõ từ khâu phân loại rồi, thế nhưng hai th

0 0 169

- vừa được xem lúc

Sử dụng vector trong lập trình C++ - giải bài toán lập trình muôn thủa

Chào buổi tối mọi người, hôm nay lang thang trên mạng bắt gặp bài toán quen thuộc một thời của quãng đường sinh viên IT. Đấy chính là câu số 1 trong đề thi dưới đây:.

0 0 57

- vừa được xem lúc

MÔ PHỎNG THUẬT TOÁN VƯƠNG HẠO TRONG PROLOG

. 1. Các luật suy diễn trong thuật toán Vương Hạo. Luật 1: Chuyển vế các giả thuyết và kết luận ở dạng phủ định. Ví dụ: p v q, !(r ^ s), !q, p v r -> s, !p <=> p v q, p v r, p -> s, r ^ s, q.

0 0 90

- vừa được xem lúc

A* Search Algorithm

What is A* Search Algorithm. How it works. . Explanation.

0 0 58

- vừa được xem lúc

Python: Jump Search

Search là một từ khóa khá là quen thuộc đối với chúng ta. Hiểu theo đúng nghĩa đen của nó chính là "Tìm kiếm".

0 0 50