Mẹo và thủ thuật

Tài liệu này mô tả các phương pháp hay nhất để thiết kế, triển khai, kiểm thử và triển khai Cloud Functions.

Tính chính xác

Phần này mô tả các phương pháp hay nhất chung để thiết kế và triển khai Cloud Functions.

Viết hàm idempotent

Các hàm của bạn sẽ tạo ra cùng một kết quả ngay cả khi được gọi nhiều lần. Điều này cho phép bạn thử lại một lệnh gọi nếu lệnh gọi trước đó không thành công trong một phần mã. Để biết thêm thông tin, hãy xem phần thử lại các hàm do sự kiện điều khiển.

Không bắt đầu hoạt động trong nền

Hoạt động ở chế độ nền là mọi hoạt động xảy ra sau khi hàm của bạn chấm dứt. Lệnh gọi hàm sẽ kết thúc sau khi hàm trả về hoặc báo hiệu hoàn tất, chẳng hạn như bằng cách gọi đối số callback trong các hàm do sự kiện điều khiển của Node.js. Mọi mã chạy sau khi kết thúc mượt mà đều không thể truy cập vào CPU và sẽ không đạt được tiến trình nào.

Ngoài ra, khi một lệnh gọi tiếp theo được thực thi trong cùng một môi trường, hoạt động ở chế độ nền sẽ tiếp tục, gây cản trở lệnh gọi mới. Điều này có thể dẫn đến hành vi không mong muốn và các lỗi khó chẩn đoán. Việc truy cập vào mạng sau khi một hàm kết thúc thường dẫn đến việc các kết nối được đặt lại (mã lỗi ECONNRESET).

Hoạt động trong nền thường có thể được phát hiện trong nhật ký của từng lệnh gọi, bằng cách tìm mọi nội dung được ghi lại sau dòng cho biết lệnh gọi đã kết thúc. Đôi khi, hoạt động trong nền có thể bị chôn sâu hơn trong mã, đặc biệt là khi có các thao tác không đồng bộ như lệnh gọi lại hoặc bộ hẹn giờ. Xem lại mã của bạn để đảm bảo tất cả các thao tác không đồng bộ đều hoàn tất trước khi bạn chấm dứt hàm.

Luôn xoá tệp tạm thời

Bộ nhớ ổ đĩa cục bộ trong thư mục tạm thời là một hệ thống tệp trong bộ nhớ. Các tệp mà bạn viết sẽ tiêu tốn bộ nhớ có sẵn cho hàm và đôi khi vẫn tồn tại giữa các lệnh gọi. Việc không xoá rõ ràng các tệp này cuối cùng có thể dẫn đến lỗi hết bộ nhớ và khởi động nguội sau đó.

Bạn có thể xem bộ nhớ mà một hàm riêng lẻ sử dụng bằng cách chọn hàm đó trong danh sách hàm trong Google Cloud Console và chọn biểu đồ Mức sử dụng bộ nhớ.

Nếu bạn cần truy cập vào bộ nhớ dài hạn, hãy cân nhắc sử dụng tính năng gắn ổ Cloud Run bằng Cloud Storage hoặc ổ NFS.

Bạn có thể giảm yêu cầu về bộ nhớ khi xử lý các tệp lớn hơn bằng cách sử dụng quy trình tạo luồng. Ví dụ: bạn có thể xử lý một tệp trên Cloud Storage bằng cách tạo luồng đọc, truyền tệp đó qua một quy trình dựa trên luồng và ghi trực tiếp luồng đầu ra vào Cloud Storage.

Khung hàm

Để đảm bảo rằng các phần phụ thuộc giống nhau được cài đặt nhất quán trên các môi trường, bạn nên đưa thư viện Khung chức năng vào trình quản lý gói và ghim phần phụ thuộc vào một phiên bản cụ thể của Khung chức năng.

Để thực hiện việc này, hãy đưa phiên bản bạn muốn vào tệp khoá có liên quan (ví dụ: package-lock.json cho Node.js hoặc requirements.txt cho Python).

Nếu không được liệt kê rõ ràng dưới dạng phần phụ thuộc, Khung chức năng sẽ tự động được thêm trong quá trình tạo bản dựng bằng phiên bản mới nhất hiện có.

Công cụ

Phần này đưa ra các nguyên tắc về cách sử dụng các công cụ để triển khai, kiểm thử và tương tác với Cloud Functions.

Phát triển cục bộ

Quá trình triển khai hàm mất một chút thời gian, vì vậy, bạn thường kiểm thử mã của hàm trên máy nhanh hơn.

Nhà phát triển Firebase có thể sử dụng Trình mô phỏng Cloud Functions của Giao diện dòng lệnh (CLI) Firebase.

Sử dụng Sendgrid để gửi email

Cloud Functions không cho phép kết nối đi trên cổng 25, vì vậy, bạn không thể tạo kết nối không an toàn với máy chủ SMTP. Bạn nên sử dụng dịch vụ của bên thứ ba như SendGrid để gửi email. Bạn có thể tìm thấy các tuỳ chọn khác để gửi email trong hướng dẫn Gửi email từ một phiên bản dành cho Google Compute Engine.

Hiệu suất

Phần này mô tả các phương pháp hay nhất để tối ưu hoá hiệu suất.

Tránh tình trạng đồng thời thấp

Vì quá trình khởi động nguội tốn kém, nên việc có thể sử dụng lại các thực thể mới khởi động trong thời gian tải tăng đột biến là một phương pháp tối ưu hoá hiệu quả để xử lý tải. Việc giới hạn tính đồng thời sẽ giới hạn cách bạn có thể tận dụng các thực thể hiện có, do đó dẫn đến nhiều lần khởi động nguội hơn.

Việc tăng tính đồng thời giúp trì hoãn nhiều yêu cầu trên mỗi thực thể, giúp dễ dàng xử lý các đợt tăng tải.

Sử dụng phần phụ thuộc một cách hợp lý

Vì các hàm không có trạng thái nên môi trường thực thi thường được khởi tạo từ đầu (trong quá trình được gọi là khởi động nguội). Khi khởi động nguội xảy ra, ngữ cảnh toàn cục của hàm sẽ được đánh giá.

Nếu các hàm của bạn nhập mô-đun, thì thời gian tải cho các mô-đun đó có thể làm tăng độ trễ lệnh gọi trong quá trình khởi động nguội. Bạn có thể giảm độ trễ này cũng như thời gian cần thiết để triển khai hàm bằng cách tải các phần phụ thuộc đúng cách và không tải các phần phụ thuộc mà hàm không sử dụng.

Sử dụng biến toàn cục để sử dụng lại các đối tượng trong các lệnh gọi trong tương lai

Không có gì đảm bảo rằng trạng thái của một hàm sẽ được giữ nguyên cho các lệnh gọi trong tương lai. Tuy nhiên, Cloud Functions thường tái chế môi trường thực thi của lệnh gọi trước đó. Nếu bạn khai báo một biến trong phạm vi toàn cục, thì giá trị của biến đó có thể được sử dụng lại trong các lệnh gọi tiếp theo mà không cần tính toán lại.

Bằng cách này, bạn có thể lưu các đối tượng vào bộ nhớ đệm mà có thể tốn kém để tạo lại trên mỗi lệnh gọi hàm. Việc di chuyển các đối tượng như vậy từ phần nội dung hàm sang phạm vi toàn cục có thể giúp cải thiện đáng kể hiệu suất. Ví dụ sau đây chỉ tạo một đối tượng nặng một lần cho mỗi thực thể hàm và chia sẻ đối tượng đó trên tất cả các lệnh gọi hàm đến thực thể đã cho:

Node.js

console.log('Global scope');
const perInstance = heavyComputation();
const functions = require('firebase-functions');

exports.function = functions.https.onRequest((req, res) => {
  console.log('Function invocation');
  const perFunction = lightweightComputation();

  res.send(`Per instance: ${perInstance}, per function: ${perFunction}`);
});

Python

import time

from firebase_functions import https_fn

# Placeholder
def heavy_computation():
  return time.time()

# Placeholder
def light_computation():
  return time.time()

# Global (instance-wide) scope
# This computation runs at instance cold-start
instance_var = heavy_computation()

@https_fn.on_request()
def scope_demo(request):

  # Per-function scope
  # This computation runs every time this function is called
  function_var = light_computation()
  return https_fn.Response(f"Instance: {instance_var}; function: {function_var}")
  

Hàm HTTP này nhận một đối tượng yêu cầu (flask.Request) và trả về văn bản phản hồi hoặc bất kỳ tập hợp giá trị nào có thể được chuyển thành đối tượng Response bằng cách sử dụng make_response.

Điều này đặc biệt quan trọng đối với các kết nối mạng, tham chiếu thư viện và đối tượng ứng dụng API trong phạm vi toàn cục. Hãy xem phần Tối ưu hoá hoạt động kết nối mạng để biết ví dụ.

Giảm số lần khởi động nguội bằng cách đặt số lượng thực thể tối thiểu

Theo mặc định, Cloud Functions sẽ điều chỉnh số lượng thực thể dựa trên số lượng yêu cầu đến. Bạn có thể thay đổi hành vi mặc định này bằng cách đặt số lượng thực thể tối thiểu mà Cloud Functions phải luôn sẵn sàng để phân phát yêu cầu. Việc đặt số lượng thực thể tối thiểu sẽ làm giảm số lần khởi động nguội của ứng dụng. Bạn nên đặt số lượng thực thể tối thiểu và hoàn tất quá trình khởi chạy tại thời điểm tải nếu ứng dụng của bạn nhạy cảm với độ trễ.

Hãy xem phần Kiểm soát hành vi điều chỉnh theo tỷ lệ để biết thêm thông tin về các tuỳ chọn thời gian chạy này.

Lưu ý về khởi động nguội và khởi chạy

Quá trình khởi chạy toàn cục diễn ra tại thời điểm tải. Nếu không có, yêu cầu đầu tiên sẽ cần hoàn tất quá trình khởi chạy và tải các mô-đun, do đó gây ra độ trễ cao hơn.

Tuy nhiên, việc khởi tạo toàn cục cũng ảnh hưởng đến quá trình khởi động nguội. Để giảm thiểu tác động này, chỉ khởi chạy những gì cần thiết cho yêu cầu đầu tiên để giữ độ trễ của yêu cầu đầu tiên ở mức thấp nhất có thể.

Điều này đặc biệt quan trọng nếu bạn đã định cấu hình các thực thể tối thiểu như mô tả ở trên cho một hàm nhạy cảm với độ trễ. Trong trường hợp đó, việc hoàn tất quá trình khởi chạy tại thời điểm tải và lưu dữ liệu hữu ích vào bộ nhớ đệm đảm bảo rằng yêu cầu đầu tiên không cần thực hiện việc này và được phân phát với độ trễ thấp.

Nếu bạn khởi tạo các biến trong phạm vi toàn cục, tuỳ thuộc vào ngôn ngữ, thời gian khởi tạo dài có thể dẫn đến hai hành vi: – đối với một số tổ hợp ngôn ngữ và thư viện không đồng bộ, khung hàm có thể chạy không đồng bộ và trả về ngay lập tức, khiến mã tiếp tục chạy ở chế độ nền, điều này có thể gây ra các vấn đề như không thể truy cập vào CPU. Để tránh điều này, bạn nên chặn quá trình khởi chạy mô-đun như mô tả bên dưới. Điều này cũng đảm bảo rằng các yêu cầu sẽ không được phân phát cho đến khi quá trình khởi chạy hoàn tất. – mặt khác, nếu quá trình khởi động là đồng bộ, thì thời gian khởi động lâu sẽ khiến quá trình khởi động nguội lâu hơn, đây có thể là vấn đề, đặc biệt là với các hàm đồng thời có mức tải thấp trong các đợt tăng tải.

Ví dụ về việc làm ấm trước thư viện node.js không đồng bộ

Node.js với Firestore là một ví dụ về thư viện node.js không đồng bộ. Để tận dụng min_instances, mã sau đây sẽ hoàn tất quá trình tải và khởi chạy tại thời điểm tải, chặn quá trình tải mô-đun.

TLA được sử dụng, tức là bạn phải dùng ES6, sử dụng tiện ích .mjs cho mã node.js hoặc thêm type: module vào tệp package.json.

{
  "main": "main.js",
  "type": "module",
  "dependencies": {
    "@google-cloud/firestore": "^7.10.0",
    "@google-cloud/functions-framework": "^3.4.5"
  }
}

Node.js

import Firestore from '@google-cloud/firestore';
import * as functions from '@google-cloud/functions-framework';

const firestore = new Firestore({preferRest: true});

// Pre-warm firestore connection pool, and preload our global config
// document in cache. In order to ensure no other request comes in,
// block the module loading with a synchronous global request:
const config = await firestore.collection('collection').doc('config').get();

functions.http('fetch', (req, res) => {

// Do something with config and firestore client, which are now preloaded
// and will execute at lower latency.
});

Ví dụ về quá trình khởi tạo toàn cục

Node.js

const functions = require('firebase-functions');
let myCostlyVariable;

exports.function = functions.https.onRequest((req, res) => {
  doUsualWork();
  if(unlikelyCondition()){
      myCostlyVariable = myCostlyVariable || buildCostlyVariable();
  }
  res.status(200).send('OK');
});

Python

from firebase_functions import https_fn

# Always initialized (at cold-start)
non_lazy_global = file_wide_computation()

# Declared at cold-start, but only initialized if/when the function executes
lazy_global = None

@https_fn.on_request()
def lazy_globals(request):

  global lazy_global, non_lazy_global

  # This value is initialized only if (and when) the function is called
  if not lazy_global:
      lazy_global = function_specific_computation()

  return https_fn.Response(f"Lazy: {lazy_global}, non-lazy: {non_lazy_global}.")
  

Hàm HTTP này sử dụng các biến toàn cục được khởi tạo từng phần. Phương thức này lấy một đối tượng yêu cầu (flask.Request) và trả về văn bản phản hồi hoặc bất kỳ tập hợp giá trị nào có thể được chuyển thành đối tượng Response bằng cách sử dụng make_response.

Điều này đặc biệt quan trọng nếu bạn xác định một số hàm trong một tệp và các hàm khác nhau sử dụng các biến khác nhau. Trừ phi sử dụng tính năng khởi tạo từng phần, bạn có thể lãng phí tài nguyên cho các biến được khởi tạo nhưng không bao giờ được sử dụng.

Tài nguyên khác

Tìm hiểu thêm về cách tối ưu hoá hiệu suất trong video "Bản đồ hiệu suất của Google Cloud" Cloud Functions Thời gian khởi động nguội.