Federated AI Technology Enabler (FATE) is an open-source computing framework designed for federated learning scenarios. It aims to support privacy protection and secure computation in federated learning environments.

Federated learning is a decentralized machine learning approach that allows training models across multiple devices or data sources without centralizing the data in one location.

FATE provides a means for participants to conduct model training and inference while preserving data privacy.

閱讀全文 »

“Fairness and Machine Learning” 是指在機器學習和人工智慧領域中,關注如何確保演算法和模型的公平性、公正性和無偏見性。在這個領域,人們致力於解決機器學習模型可能存在的偏見或歧視問題,確保演算法在處理資料和做出決策時不偏袒或歧視特定群體。

這個領域涉及到倫理、社會公正和演算法公平性等多個方面。它強調了在使用機器學習技術時應該考慮到對不同群體的平等對待,並努力消除因種族、性別、年齡、性取向等因素而引起的偏見。研究人員和從業者嘗試開發演算法和技術,以確保模型的公正性,並提出了各種衡量和評估公平性的方法和指標,以便在設計和評估機器學習系統時能夠更好地考慮到公平性問題。

閱讀全文 »

安全屋(Trusted Execution Environment,TEE)是一種硬體和軟體的結合,提供了一個安全的執行環境,用於保護應用程式和敏感數據免受外部攻擊或未授權訪問。

TEE通常位於計算裝置(如智能手機、物聯網設備或服務器)中,它提供了一個被信任的區域,可以在其中執行被稱為「安全執行環境」的受保護區域。這個受保護的環境是隔離的,並且有自己的受保護的記憶體和程序運行空間。

閱讀全文 »

同態加密(Homomorphic Encryption)是一種特殊類型的加密技術,允許對加密資料進行計算,而無需先解密它們。這種加密方法允許對加密資料進行某些特定操作(如加法、乘法等),並且在對加密資料進行計算後,結果仍然是加密的。最後,只有當持有解密金鑰的合法用戶對計算結果進行解密時,才能獲得正確的最終結果。

同態加密在隱私保護和安全計算中具有重要作用。它允許資料持有者將資料加密後外包給其他方進行計算,而不會洩露資料內容。例如,可以在加密的資料上執行各種計算,如在雲計算環境中對加密資料進行處理,而無需直接訪問解密後的原始資料。這樣做可以確保資料隱私,在資料處理和共用過程中提供更高的安全性。

雖然同態加密技術在理論上非常強大,但目前仍存在一些挑戰,例如運算效率較低、複雜度高等問題。然而,隨著技術的進步和研究的不斷深入,同態加密正逐漸成為隱私保護和安全計算領域的一個有潛力的解決方案。

閱讀全文 »

安全多方計算(Secure Multi-Party Computation,SMPC)是一種密碼學技術,允許多個參與者在不暴露各自私密輸入的情況下共同進行計算。這種方法使得參與者可以在保護隱私的情況下進行資料處理和計算。

在安全多方計算中,每個參與者都持有私密的輸入資料,並且可以與其他參與者共同完成某個計算任務,例如求和、比較、邏輯運算等,而不需要彼此直接共用各自的輸入。通過使用密碼學技術和協定,SMPC允許在保持資料私密性的同時,對資料進行計算和處理,最終得到計算結果。

這種技術在隱私保護、安全資料分析和安全計算等領域有廣泛的應用。它允許不同組織或個人在不共用敏感性資料的情況下合作解決問題,例如醫療保健領域的病例分析、金融領域的風險評估等。安全多方計算提供了一種方法,使得多方能夠在不犧牲資料隱私的前提下合作進行計算和分析。

閱讀全文 »

差分隱私(Differential Privacy)是一種隱私保護技術,旨在在資料發佈或資料分析過程中,最大程度地保護個人隱私。它通過添加雜訊或擾動來混淆資料,以防止針對特定個體的隱私洩露。

差分隱私的核心思想是確保資料分析結果對於任何單個個體的貢獻是不顯著的,即使知道其他個體的資訊。這意味著無論是否知道除了某個特定個體之外的其他資料,該特定個體的資料對結果的影響都應該非常有限,從而保護了其隱私。

應用差分隱私的方法包括向資料中添加隨機雜訊、擾動查詢結果或調整資料集的分佈。這些方法可以在資料發佈、資料分析和機器學習訓練等場景中使用,以防止敏感資訊的洩露。

差分隱私技術在隱私保護、資料共用和資料發佈方面有著廣泛的應用。它允許在資料分析和共用過程中,提供對個人隱私的高度保護,同時仍然允許對資料進行有意義的分析和利用。

閱讀全文 »

Introduction

PySyft是一個用於私隱保護機器學習的Python庫。它基於PyTorch,旨在實現安全和私隱保護的機器學習技術。PySyft提供了工具和功能,使得在分散式環境中進行機器學習模型訓練和預測時能夠保護敏感數據。

閱讀全文 »
0%