安全多方計算(Secure Multi-Party Computation,SMPC)是一種密碼學技術,允許多個參與者在不暴露各自私密輸入的情況下共同進行計算。這種方法使得參與者可以在保護隱私的情況下進行資料處理和計算。

在安全多方計算中,每個參與者都持有私密的輸入資料,並且可以與其他參與者共同完成某個計算任務,例如求和、比較、邏輯運算等,而不需要彼此直接共用各自的輸入。通過使用密碼學技術和協定,SMPC允許在保持資料私密性的同時,對資料進行計算和處理,最終得到計算結果。

這種技術在隱私保護、安全資料分析和安全計算等領域有廣泛的應用。它允許不同組織或個人在不共用敏感性資料的情況下合作解決問題,例如醫療保健領域的病例分析、金融領域的風險評估等。安全多方計算提供了一種方法,使得多方能夠在不犧牲資料隱私的前提下合作進行計算和分析。

閱讀全文 »

差分隱私(Differential Privacy)是一種隱私保護技術,旨在在資料發佈或資料分析過程中,最大程度地保護個人隱私。它通過添加雜訊或擾動來混淆資料,以防止針對特定個體的隱私洩露。

差分隱私的核心思想是確保資料分析結果對於任何單個個體的貢獻是不顯著的,即使知道其他個體的資訊。這意味著無論是否知道除了某個特定個體之外的其他資料,該特定個體的資料對結果的影響都應該非常有限,從而保護了其隱私。

應用差分隱私的方法包括向資料中添加隨機雜訊、擾動查詢結果或調整資料集的分佈。這些方法可以在資料發佈、資料分析和機器學習訓練等場景中使用,以防止敏感資訊的洩露。

差分隱私技術在隱私保護、資料共用和資料發佈方面有著廣泛的應用。它允許在資料分析和共用過程中,提供對個人隱私的高度保護,同時仍然允許對資料進行有意義的分析和利用。

閱讀全文 »

Introduction

PySyft是一個用於私隱保護機器學習的Python庫。它基於PyTorch,旨在實現安全和私隱保護的機器學習技術。PySyft提供了工具和功能,使得在分散式環境中進行機器學習模型訓練和預測時能夠保護敏感數據。

閱讀全文 »

Introduction

「Backdoor Watermarking」是一種數位浮水印技術,用於保護智慧財產權或確保資料安全。與傳統數位浮水印不同,後門數位浮水印技術被設計用於在資料中引入一種隱秘的標記或特徵,該標記可以作為後門或秘密通道的形式存在。這種標記通常對正常的資料處理不會產生影響,但當特定條件被滿足時,這些標記可以被識別出來。

後門數位浮水印通常在特定情況下才會被啟動或檢測出來,例如在未經授權的資料訪問或未經授權的使用情況下。它們可以用於確認資料的合法性、追蹤資料的來源、防止未經授權的複製或修改等方面。

這種技術的應用包括版權保護、內容安全、防止資料盜竊等方面。它為資料提供了一種隱藏的保護機制,當資料被非法使用或未經授權時,可以説明確定資料的合法性並追蹤資料的來源。

閱讀全文 »

簡介

We focus on automatic segmentation of multiple anatomical structures in (whole body) CT images.
Many segmentation algorithms exist for this task. However, in most cases they suffer from 3 problems:

  1. They are difficult to use (the code and data is not publicly available or difficult to use).
  2. They do not generalize (often the training dataset was curated to only contain very clean images which do not reflect
    the image distribution found during clinical routine)
  3. The algorithm can only segment one anatomical structure. For more structures several algorithms have to be used which increases the effort required to set up the system.

In this work we publish a new dataset and segmentation toolkit which solves all three of these problems:
In 1204 CT images we segmented 104 anatomical structures (27 organs, 59 bones, 10 muscles, 8 vessels)

閱讀全文 »

簡介

「稀疏學習」是一種機器學習技術,旨在學習具有稀疏性的模型或參數,以便有效地表示數據並提取重要的特徵。稀疏學習強調僅使用少量的非零元素來表示數據,從而減少計算和存儲的成本,同時保持良好的性能。

閱讀全文 »

簡介

流形學習(Manifold Learning)是一種機器學習和數據分析的技術,旨在探索和理解高維數據在低維流形(manifold)中的結構。在現實世界中,很多數據存在於高維空間,但實際上可能分佈在更低維的嵌入子空間中。流形學習的目標是通過將這些嵌入子空間中的結構轉化為更容易可視化、分析和處理的形式,以便更好地理解數據的特點和關係。

閱讀全文 »

簡介

對抗性示例(Adversarial Examples)是指在機器學習和人工智慧領域中,經過故意修改的輸入數據,通常是對原始數據進行微小但精心設計的改變,這種修改可以導致訓練有素的機器學習模型產生出錯誤的結果。

對抗性示例的產生是通過在原始輸入數據中添加微小的、人眼難以察覺的扰動,這些扰動在數據空間中的位置通常是調整過的,以便最大限度地欺騙機器學習模型。儘管對抗性示例的改變通常對人類觀察者來說是微不足道的,但它們卻能夠導致模型做出顯著不同的預測,甚至產生錯誤的結果。

對抗性示例的研究具有重要的意義,它揭示了當前機器學習模型的脆弱性,這些模型在面對微小變化時可能會出現不穩定的行為。為了提高模型的穩健性,研究者們努力開發抵抗對抗性示例攻擊的方法,以確保模型在面對這種干擾時能夠保持較高的準確性和可靠性。

閱讀全文 »
0%