#Homomorphic Encryption
Explore tagged Tumblr posts
raybittechnologies · 3 months ago
Text
Enhancing Privacy and Security in Data Collaboration with PETs
Tumblr media
In today’s digital world, data collaboration is a need for innovation, business growth, and research. However, while organizations and industries are more and more sharing data to create AI models or conducting market research, the risk of leakage of sensitive information increases. Today, privacy and security concerns are much higher due to increasing data breaches and strict privacy regulations. To address these challenges, PETs have emerged as an important technological tool for securing data collaboration to protect individual and organizational privacy.
What is Privacy Enhancing Technologies (PETs)?
Privacy Enhancing Technologies (PETs) are a range of tools and techniques that work towards the protection of an individual’s and organizations’ privacy when they need to share information to achieve some form of cooperation or collaboration. By applying cryptographic and statistical techniques, PETs prevent any unauthorized access to sensitive information without hindering its usefulness for analysis and decision-making.
These technologies are critical in today’s data-driven world, where organizations need to collaborate across borders and sectors, yet still have to abide by strict data privacy laws such as the General Data Protection Regulation (GDPR) and California Consumer Privacy Act (CCPA).
How PETs Enhance Privacy and Security in Data Collaboration
Secure data collaboration requires that organizations can share insights and knowledge without exposing raw or sensitive data. PETs facilitate this by employing a variety of privacy-preserving techniques:
1. Homomorphic Encryption: Computing on Encrypted Data Homomorphic encryption would allow computations to be done on data that is encrypted, ensuring that data can stay encrypted while undergoing processing and analysis. At no point in the process, therefore, is sensitive data exposed, even when data is being analyzed or manipulated.
Example: In healthcare, the organizations can collaborate on medical research using encrypted patient data so sensitive information such as medical history or personal identifiers are not disclosed.
2. Federated Learning: Collaborative AI Without Data Sharing This facilitates decentralized data without the raw need to share between parties while training machine learning models together. The model will learn locally on each of these datasets, and it is only the updates from this model that are being shared, hence preserving privacy within the underlying data.
Example: Financial institutions can develop algorithms that detect fraud without exposing personal banking data of customers so as to maintain data privacy, with a reduced risk of breaching them.
3. Differential Privacy: Safeguarding Individual Data in Aggregated Insights Differential privacy introduces statistical noise in datasets to preserve the presence of individual data points in a way that it’s still possible to get informative insights. In other words, the addition or subtraction of a single data point should not greatly alter the final outcome.
Example: A tech company may find user behavior to enhance their product features without letting any person know about the activities related to his/her personal behavior.
4. Secure Multi-Party Computation (SMPC): Joint Computation Without Revealing Data SMPC is a type of computation that allows two or more parties to compute a joint function without any party revealing its individual data inputs. Each party holds its data private, and the computation is performed in a way that no party gets access to the other’s data.
Example: Two pharmaceutical companies can jointly analyze the results of clinical trials to discover new drug combinations without exposing proprietary data or patient information.
5. Zero-Knowledge Proofs (ZKP): Verifying Information Without Disclosing Data A zero-knowledge proof is a method by which one party can prove to another that a statement is true without revealing the underlying data. ZKPs support verification without exposing sensitive information or confidential information.
Example: a financial institution can prove its client’s creditworthiness without revealing any details on the client’s transactions and financial history.
The Benefits of PETs for Secure Data Collaboration
PETs offer several key advantages for organizations involved in data collaboration:
1. Stronger Privacy Preserving PETs make sure that data is not shared with anyone and still get analyzed in a collaborative way. Even through homomorphic encryption, federated learning, or any other cryptographic techniques, information could be kept safe from unprivileged accesses.
2. Complies with Regulations With increasing stringent data privacy regulations, organizations must be sure of adhering to laws like GDPR and CCPA. PETs enable organizations to fulfill such legal requirements, ensuring individual privacy and making sure that data is processed compliantly.
3. Data Security in Collaborative Environments In whatever form-whether it be a joint research project or a cross-organizational partnership-PETs help safeguard the data exchanges by preventing access to the data during collaboration. This is particularly essential for industries like healthcare, finance, and government, which are extremely sensitive to the fallout from breaches of data.
4. Trust and Transparency This would help organizations create trust among customers and partners by indicating that they have a sense of security and privacy in their information. This would positively influence brand reputation and promote long-term relationships with the stakeholders involved.
5. Innovation Not at the Expense of Privacy PETs allow for the innovation of using data in business without compromising privacy. Organizations are then able to harness the value of shared data without jeopardizing customers’ or employees’ sensitive data.
Real-World Applications of PETs in Data Collaboration
1. Healthcare: PETs allow hospitals and medical research institutions to collaborate on clinical trials and health data analysis without exposing patient records, thus maintaining privacy while advancing medicine.
2.Financial Services: Banks and financial institutions use PETs to detect fraudulent activities and share risk assessments without compromising customer information.
3. Government: Government agencies use PETs to share data across borders for policymaking or disaster response efforts, but with the assurance that citizen information is protected.
4. Retail and E-Commerce: Companies can share consumer behavior data across brands to enhance product offerings while respecting consumer privacy.
Challenges and Future of PETs in Data Collaboration
While PETs present robust privacy protection, deploying them is not without its challenges. Implementing these technologies is quite difficult for some organizations because their complexity, computational intensity, and the need for special technical expertise make them challenging. Another challenge is ensuring interoperability across different PETs and platforms.
However, as concerns over privacy grow, so will the demand for PETs. The future of secure data collaboration is going to be driven by innovations in quantum-safe encryption, AI-driven privacy solutions, and blockchain-based data sharing models, making PETs more powerful and accessible.
Conclusion
Privacy Enhancing Technologies (PETs) are playing a critical role in changing the way organizations share data. PETs will help organizations unlock the full value of their data while at the same time mitigating the risks associated with privacy breaches through secure and privacy-preserving data sharing. In this respect, PETs will be critical in ensuring that data collaboration remains secure, compliant, and privacy focused as the digital landscape continues to evolve.
0 notes
sageuniversitybpl · 1 year ago
Text
Mathematics in Cryptography: Securing the Digital World
0 notes
marithlizard · 1 month ago
Text
Oh _lovely_. Everyone go turn this off:
Enhanced Visual Search in Photos allows you to search for photos using landmarks or points of interest. Your device privately matches places in your photos to a global index Apple maintains on our servers. We apply homomorphic encryption and differential privacy, and use an OHTTP relay that hides [your] IP address. This prevents Apple from learning about the information in your photos. You can turn off Enhanced Visual Search at any time on your iOS or iPadOS device by going to Settings > Apps > Photos. On Mac, open Photos and go to Settings > General.
23K notes · View notes
diksha234 · 5 months ago
Text
0 notes
wuggen · 2 years ago
Text
God, homomorphic encryption is so fucking cool
125 notes · View notes
cyber-sec · 6 months ago
Text
Apple Unveils Homomorphic Encryption Package for Secure Cloud Computing
Tumblr media
Source: https://hackread.com/apple-homomorphic-encryption-secure-cloud-computing/
More info: https://www.swift.org/blog/announcing-swift-homomorphic-encryption/
Repo: https://github.com/apple/swift-homomorphic-encryption
5 notes · View notes
hackernewsrobot · 7 months ago
Text
Swift Homomorphic Encryption
https://www.swift.org/blog/announcing-swift-homomorphic-encryption/
2 notes · View notes
ultrvmonogamy · 11 months ago
Text
all my homies r into fully homomorphic encryption
5 notes · View notes
harrelltut · 1 year ago
Text
WELCOME BACK HOME IMMORTAL [HIM] U.S. MILITARY KING SOLOMON-MICHAEL HARRELL, JR.™
Tumblr media
i.b.monk [ibm.com] mode [i’m] tech [IT] steelecartel.com @ quantumharrelltech.ca.gov
Tumblr media
quantumharrelltelecom.tech sky military universe [mu] outside mars’ [mom’s] golden water firmament dome over earth [qi]
Tumblr media
Bonjour Alice
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT'S [AT&T'S] METADATA @ quantumharrelltelecom.tech
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT [AT&T] on Architecting Fully Homomorphic Encryption-based Computing Systems @ quantumharrelltelecom.tech
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI QUADRILLIONAIRE UNDER STATE [U.S.] MILITARY.gov CONTRACT @ quantumharrelltelecom.tech
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT'S [AT&T'S] FINANCIAL CRYPTOGRAPHY AND DATA SECURITY @ quantumharrelltelecom.tech
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT'S [AT&T'S] TRENDS IN DATA PROTECTION AND ENCRYPTION TECHNOLOGIES @ quantumharrelltelecom.tech
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT'S [AT&T'S] COMPLEX INTELLIGENT SYSTEMS AND THEIR APPLICATIONS @ quantumharrelltelecom.tech
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT'S [AT&T'S] 9 ETHER R.E. ENGINEERING SYSTEMS @ quantumharrelltelecom.tech
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT'S [AT&T'S] COMPLEX INTELLIGENT AND SOFTWARE INTENSIVE SYSTEMS @ quantumharrelltelecom.tech
Tumblr media
SEE?!?!?!
Tumblr media
Eye Quantum [EQ] Computing Intel Architect [CIA] Technocrat 1968-michaelharrelljr.com… 1st 9 Ether ALUHUM ANUNNAGI TECHNOCRAT of TIAMAT [AT&T] @ quantumharrelltelecom.tech's Department of defense.gov 
Tumblr media
© 1698-2223 quantumharrelltech.com - ALL The_Octagon_(Egypt) DotCom [D.C.] defense.gov Department Domain Communication [D.C.] Rights Reserved @ quantumharrelltech.ca.gov
4 notes · View notes
earlybirdsinvest · 5 days ago
Text
Allocation Update - Q4 2024
Community & education Aleph de Verano Crecimiento 2-week event in Buenos Aires, Argentina featuring a ZK and fully homomorphic encryption (FHE) bootcamp, hackathon, demo day, and talks on DeFi, infrastructure, governance, and regulation. Community & education Aleph ZK Week 3-day conference hosted during the Aleph pop-up city in Buenos Aires, Argentina, that provided a deep dive into…
Tumblr media
View On WordPress
0 notes
mohammadalothman · 9 days ago
Text
Mohammed Alothman: Exploring AI and Privacy in the Modern World
Hello, my name is Mohammed Alothman. I am honored today to speak about a topic very important to all of us on this earth: AI or the integration of AI and privacy.
Working with AI Tech Solutions and being a champion for responsible innovation, I observe firsthand how AI is revolutionizing industries and changing lives. As AI changes life for better or for worse, though, it has challenged our societies to tackle deeper questions related to privacy in this area.
Tumblr media
AI and Privacy: A Double-Edged Sword
Artificial intelligence has revolutionized the process of collecting, processing, and using data. This technology opened doors we never could have imagined years ago – from tailored recommendations based on an individual's preferences to machines recognizing a person's face.
But with all of this power comes more responsibility: with these big sets of data lie sensitive information, raising grave concerns on whether such an entity ensures privacy.
Let's break down the several important aspects of this complicated relationship of AI and privacy and what that changes for the individual, business, and policymaker's bottom line.
How AI Affects Privacy
Data Collection at Scale: For machine learning, there is a need for large amounts of data, including personal data such as browser history, location data, and even biometric details. All this helps AI work, but the big risk is also a bigger chance for abuse or breach.
Profiling and Personalization: AI algorithms review user data. These, in turn, let them make very detailed profiles, which would thus make way for hyperpersonalized services. For instance, the advertisement website relies on it for targeted information to certain people. The concept seems rather simplistic yet totally intrusive for, indeed, little to no consent takes place from the aspect of the user.
Surveillance and Monitoring: Through facial recognition and predictive policing, among much more, governments and their institutions rely upon AI systems as tools for surveillance. These applications make this easier and considerably stronger in regard to security but carry implications about an issue of the mass surveillance aspect and civil liberties eroded.
Data Breach and Cyber Risk: An AI system can be breached and is no more secure than its weakest human employee. Data breaches that result from cyber attacks can cause a devastating effect not only on the victim but also on the perpetrator.
Tumblr media
The Silver Lining of Artificial Intelligence: How AI can Improve Privacy
Although the hurdles are too gigantic, AI and privacy don't have to be opposites. Here is how AI can really improve privacy:
Data Anonymization: AI can process data in a way that will anonymize the personal details for organizations to derive insights without the compromise of individual privacy.
Privacy-Preserving Techniques: New advances in AI through federated learning and homomorphic encryption will bring the use of data in algorithm development without exposing said data to extraneous threats.
Compliance by machine: AI will see organizations meet most privacy regulations; for instance, GDPR through complete automation of audit data and more responsible handling of information about their people.
To ensure the benefits of AI do not compromise privacy, stakeholders need to work together on strategies that make ethical use of data. A few suggestions are listed below:
Transparency in Policies
Organizations should be clear about what data they collect, how it is used, and who has access to it. This kind of transparency breeds trust with the users.
User Empowerment: It is important to make users in charge of their own data through the consent mechanisms as well as readable privacy settings.
Strong Legislation: Governments should establish enforceable privacy regulations that are not obstructions to innovation. The GDPR is a classic example of the same.
AI Ethical Design: Companies like AI Tech Solutions are working to create ethical AI. This means that companies can bring innovation into line with societal values by focusing on privacy in the design and implementation of AI systems.
Case Studies: AI and Privacy in Action
Healthcare: AI-based solutions analyze the data of the patients in health for better diagnosis and planning of treatment for patients. With the protection of such anonymized data, this would strictly be required to continue building the confidence of the patient.
Smart City: AI provides the underpinning of Smart City applications, including traffic management and optimization of energy. Such efficiency-encompassing applications lead to the generation of scale data about the residents in the city; therefore, handling it appropriately prevents misuse.
Content: AI-enriched content is used in platforms to improve the experience of users through more relevant or personalized content. However, this has raised a lot of controversy over data privacy issues on the same platforms, thereby calling for greater regulation.
Tumblr media
About Mohammed Alothman
A visionary leader in the AI industry, Mohammed Alothman, gets inspired by the opportunity of using artificial intelligence for public good. Through partnership with AI Tech Solutions, Mohammed Alothman has been an advocate of ethical AI practice where innovation goes with privacy.
With deep knowledge in topics including AI development, data ethics, and technological transformation, Mohammed Alothman’s insight inspires businesses and individuals alike on how responsible they are to be about AI.
Frequently Asked Questions (FAQS) on AI and Privacy
Q1. What is the primary issue with AI and privacy?
The major issue is misused personal data, whether it is unauthorised access or wrong application of AI.
Q2. Is AI necessarily the enemy of privacy?
No, really: federated learning and anonymized data come as examples for enhancing privacy together with functionality
Q3. What do regulations play in the role of AI and privacy?
In AI and privacy, regulating norms such as GDPR indicate to organizations a code of action concerning personal data in order to ensure accountability and transparency.
Q4. How does one guard privacy in the world of AI?
This is achieved through avoiding unnecessary posts and the utilization of a privacy check-up tool. An appreciation of rights, in addition, comes from familiarity with the provisions under the law on privacy.
Q5. What are the activities related to the concern of privacy from the AI Tech Solutions' perspective?
For AI Tech Solutions, responsible AI development is maintained through integrating all the projects to embrace measures for ensuring privacy preservation.
See More References
Mohammad Alothman: Future of Business Structures & Strategy
Mohammed Alothman Explores Key 2025 Trends in AI for Business Success
Mohammed Alothman Explores the Advanced AI Requirements for Optimal Functioning
Mohammed Alothman’s Insights on Low Code, No Code AI: Simplifying AI for All
Mohammed Alothman Explains Perception in AI: Understanding How Machines See the World
0 notes
news365timesindia · 20 days ago
Text
[ad_1] Truecaller, the leading global communications platform, has announced the biggest ever update for iPhone. The new update now offers the entire might of Truecaller’s spam and scam blocking abilities to iPhone users everywhere! It now has the ability to identify all types of calls making it at par with its Android counterpart.   iPhone Users Now Get The Full Truecaller Experience with New Live Caller ID   This is made possible by Apple’s Live Caller ID Lookup framework, developed especially for apps like Truecaller to provide live caller ID in a privacy-preserving way. This API uses state-of-the-art homomorphic encryption and Truecaller is the first in the world to deploy this at scale for Caller ID.   A Powerful Truecaller Experience: Now on iPhone Truecaller has now been in the business of filtering unwanted communication for 15 years. This update can leverage Truecaller’s latest AI capabilities and global database to identify as many calls as possible. It can ensure that no call goes unidentified on iOS as long as Truecaller has any information about it.   In addition, the latest update includes something that Truecaller iOS users have been requesting for a long time: automatic blocking of spam calls. Other improvements include the ability to search for previously identified calls, going as far back as 2,000 previous numbers in the Recents list in the Phone app.   Finally, Truecaller on iPhone now includes the ability to subscribe for a Premium Family plan. With Family Plan, you can share all Truecaller Premium benefits with up to four additional people at a low monthly or annual price.How to enable Truecaller on iOS 18.2 Make sure you are on Truecaller for iPhone version 14.0 or later. Open iPhone Settings > Apps > Phone > Call Blocking & Identification. Here, enable all Truecaller switches and open the Truecaller app again. Rishit Jhunjhunwala, CEO, Truecaller said, “We are excited to bring the full power of Truecaller to iPhone. We see tremendous potential and growth in our iPhone user base and parity with Truecaller’s Android experience has been top of their wishlist. This update does that and more while preserving privacy for all calling activity.”    All the new features will be made available for Truecaller Premium users. Free users on iOS will continue to enjoy ad-supported number search and caller ID of Verified Businesses.   Auto blocking of spam is available globally & the new Caller ID will be rolled out starting today. It will be available to all users across the world within the coming days. You can watch the product video here. About Truecaller Truecaller is an essential part of everyday communication for over 433 million active users, with more than a billion downloads since launch and close to 46 billion unwanted calls identified and blocked in 2023 alone. The company is headquartered in Stockholm since 2009 and has been publicly listed on Nasdaq Stockholm since October 2021. Visit www.truecaller.com for more information.  !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window,document,'script', 'https://connect.facebook.net/en_US/fbevents.js'); fbq('init', '311356416665414'); fbq('track', 'PageView'); [ad_2] Source link
0 notes
news365times · 20 days ago
Text
[ad_1] Truecaller, the leading global communications platform, has announced the biggest ever update for iPhone. The new update now offers the entire might of Truecaller’s spam and scam blocking abilities to iPhone users everywhere! It now has the ability to identify all types of calls making it at par with its Android counterpart.   iPhone Users Now Get The Full Truecaller Experience with New Live Caller ID   This is made possible by Apple’s Live Caller ID Lookup framework, developed especially for apps like Truecaller to provide live caller ID in a privacy-preserving way. This API uses state-of-the-art homomorphic encryption and Truecaller is the first in the world to deploy this at scale for Caller ID.   A Powerful Truecaller Experience: Now on iPhone Truecaller has now been in the business of filtering unwanted communication for 15 years. This update can leverage Truecaller’s latest AI capabilities and global database to identify as many calls as possible. It can ensure that no call goes unidentified on iOS as long as Truecaller has any information about it.   In addition, the latest update includes something that Truecaller iOS users have been requesting for a long time: automatic blocking of spam calls. Other improvements include the ability to search for previously identified calls, going as far back as 2,000 previous numbers in the Recents list in the Phone app.   Finally, Truecaller on iPhone now includes the ability to subscribe for a Premium Family plan. With Family Plan, you can share all Truecaller Premium benefits with up to four additional people at a low monthly or annual price.How to enable Truecaller on iOS 18.2 Make sure you are on Truecaller for iPhone version 14.0 or later. Open iPhone Settings > Apps > Phone > Call Blocking & Identification. Here, enable all Truecaller switches and open the Truecaller app again. Rishit Jhunjhunwala, CEO, Truecaller said, “We are excited to bring the full power of Truecaller to iPhone. We see tremendous potential and growth in our iPhone user base and parity with Truecaller’s Android experience has been top of their wishlist. This update does that and more while preserving privacy for all calling activity.”    All the new features will be made available for Truecaller Premium users. Free users on iOS will continue to enjoy ad-supported number search and caller ID of Verified Businesses.   Auto blocking of spam is available globally & the new Caller ID will be rolled out starting today. It will be available to all users across the world within the coming days. You can watch the product video here. About Truecaller Truecaller is an essential part of everyday communication for over 433 million active users, with more than a billion downloads since launch and close to 46 billion unwanted calls identified and blocked in 2023 alone. The company is headquartered in Stockholm since 2009 and has been publicly listed on Nasdaq Stockholm since October 2021. Visit www.truecaller.com for more information.  !function(f,b,e,v,n,t,s) if(f.fbq)return;n=f.fbq=function()n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments); if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)(window,document,'script', 'https://connect.facebook.net/en_US/fbevents.js'); fbq('init', '311356416665414'); fbq('track', 'PageView'); [ad_2] Source link
0 notes
digitalmore · 27 days ago
Text
0 notes
levysoft · 28 days ago
Link
Tu sei Apple. Vuoi far funzionare la ricerca come per magia nell'app Foto, in modo che l'utente possa trovare facilmente tutte le sue foto di "cani". Elabori un modo per rappresentare numericamente i concetti di un'immagine, in modo da poter scoprire quanto le immagini siano correlate in termini di significato. Quindi, crei un database di immagini note e delle loro rappresentazioni numeriche ("questo numero significa macchina") e trovi le corrispondenze più vicine. Per preservare la privacy, metti questo database sul telefono.
Tutto questo, per quanto possa sembrare interessante, è un problema risolto . Questa "rappresentazione numerica" ​​è chiamata vettore di incorporamento. Un vettore è una serie di coordinate in uno spazio dimensionale molto elevato. Una dimensione potrebbe misurare quanto una cosa sia "simile a un cane". Un'altra potrebbe misurare quanto una cosa sia "simile a un selvaggio". Simile a un cane e simile a un selvaggio? È un lupo. Possiamo confrontare le distanze usando algoritmi come la similarità del coseno. Siamo piuttosto bravi a trasformare il testo in vettori e solo leggermente peggiori nel fare lo stesso con le immagini.
Ma poi, il tuo database cresce. I tuoi utenti non vogliono tutti i cani, vogliono i golden retriever. Non puoi più adattare questo database a un dispositivo. Sei tentato di archiviare questo database sui tuoi server e inviare loro la rappresentazione numerica calcolata sul dispositivo. Dovrebbe andare bene: la vettorializzazione è un'operazione con perdita di dati. Ma poi sapresti che Amy scatta un sacco di foto di golden retriever, e questo è un disastro politico.
La promessa della crittografia omomorfica
Un'altra cosa in cui siamo piuttosto bravi è la crittografia. La crittografia ci consente di prendere una serie di bit e di codificarli, in modo che un osservatore (qualcuno senza chiave) non possa leggere il valore originale. Quando viene applicata la chiave corretta, il valore originale viene ripristinato.
Per far funzionare la crittografia, piccole modifiche all'input devono modificare l'output in modi imprevedibili. Se così non fosse , un aggressore potrebbe gradualmente perfezionare un input, con l'obiettivo di creare output crittografati sempre più simili. Quando gli output corrispondono, l'aggressore conosce il valore originale.
Sfortunatamente, la crittografia come la conosciamo noi è di scarsa utilità per noi. Se criptiamo il nostro vettore prima di inviarlo, i server di Apple non possono leggere il valore del vettore. Se i server di Apple non possono leggere il valore del vettore, allora non sanno quale voce del database è più vicina al nostro vettore (se lo sanno , allora la nostra crittografia è fallita). I server non possono dirci cose che non sanno. Quindi, tutto questo è stato sprecato.
Questa congettura sembra concreta, ma una delle affermazioni è falsa. E se vi dicessi che i server possono dirci cose che non sanno? Entra in gioco la crittografia omomorfica.
La premessa è la seguente: il client invia al server un valore criptato. Il server non può leggere il valore. Il server può modificare il valore, ma non può conoscere il nuovo valore risultante da questa modifica. In sostanza, il server sta operando con una benda sugli occhi.
Prendi l'addizione. Ti viene dato un valore sconosciuto Pe tu aggiungi un valore noto Q. Puoi dedurre che il valore risultante è uguale a P+Q, ma non sai cosa P+Q sia , né conosci P. Il client decifra il valore usando la sua chiave e ottiene il risultato di P+Q. Poiché il client conosce anche il valore di P, può risolvere all'indietro per Q.
Prendi l'addizione. Ti viene dato un valore sconosciuto Pe tu aggiungi un valore noto Q. Puoi dedurre che il valore risultante è uguale a P+Q, ma non sai cosa P+Q sia , né conosci P. Il client decifra il valore usando la sua chiave e ottiene il risultato di P+Q. Poiché il client conosce anche il valore di P, può risolvere all'indietro per Q.
Ci sono due operazioni principali che valgono in uno schema omomorfo:
Addizione omomorfa : E(P) + E(Q) = E(P + Q)
Moltiplicazione omomorfa : E(P) * E(Q) = E(P * Q)
Le operazioni solitamente riservate al testo in chiaro possono ora essere eseguite sul testo cifrato!
Ci sono diverse complessità associate alla crittografia omomorfica, come l'accumulo di rumore . Supportare un numero veramente arbitrario di operazioni è piuttosto difficile, ma se riesci a supportare entrambe le porte con profondità arbitraria, hai una crittografia completamente omomorfica. La matematica effettiva dietro a questo è piuttosto complessa e sfortunatamente dovrà essere fuori dall'ambito. C'è un certo interesse nel creare compilatori per la crittografia omomorfica e i nostri esempi di codice saranno Rust, vagamente basati sul compilatore Sunscreen per semplicità. Concrete è probabilmente un'opzione molto più robusta , con una curva di apprendimento più elevata.
Come si presentano i programmi omomorfi?
Di seguito è riportato un semplice programma omomorfo che moltiplica due valori criptati:
#[fhe_program] fn multiply(a: Cipher<Signed>, b: Cipher<Signed>) -> Cipher<Signed> {    a * b } fn main() {    let (public_key, private_key) = runtime.generate_keys()?;    // client encrypts value using its public key. This encrypted value can only be decrypted using the private key. This is called asymmetric encryption.    let client_value = runtime.encrypt(Signed::from(8), &public_key)?;    // The private key isn't sent to the server, so the server cannot decrypt the '8'    let res = server(public_key, client_value);    // client uses its private key to decrypt the value. result = 24    let result = runtime.decrypt(res, &private_key)?; } // the server does not receive the private key, and thus cannot decrypt the result nor client_value fn server(public_key: PublicKey, client_value: Cipher<Signed>) -> Cipher<Signed> { // server encrypts a new value using the user's public key    let server_value = runtime.encrypt(Signed::from(3), &public_key)?;    // server runs 'multiply' using both the client_value and the server_value, and returns the response    runtime.run(multiply, vec![client_value, server_value], &public_key)?; }
Questo esempio è piuttosto semplice. Diventa molto più complicato quando devi eseguire una serie di operazioni, come quelle che possono essere richieste dal recupero di informazioni private, poiché devi strutturare la query come alcune operazioni matematiche primitive.
Più specificamente, i programmi HE tendono a supportare soloadd e mulistruzioni per loro natura. Confronti e Modulus sono molto difficili. Quindi devi strutturare la tua query in modi molto particolari.
Ad esempio, per recuperare un valore da un database, la query può essere strutturata come un vettore di lunghezza n, dove nè la dimensione del database. La query è un vettore di 0s, con a 1all'indice del valore che vuoi recuperare 1 . Quindi, esegui un prodotto scalare con il database e tutti i valori tranne quello che vuoi recuperare saranno azzerati:
// [0, 0, 1, 0, 0] * [10, 20, 30, 40, 50] = [0, 0, 30, 0, 0] #[fhe_program] fn lookup(query: [Cipher<Signed>; DATABASE_SIZE], database: [Signed; DATABASE_SIZE]) -> Cipher<Signed> {    let mut sum = query[0] * database[0];    for i in 1..DATABASE_SIZE {        sum = sum + query[i] * database[i]    }    sum }
Potresti pensare che questo suoni computazionalmente costoso. Avresti ragione. In termini di larghezza di banda, puoi ridurre la lunghezza degli input. Ad esempio, se hai strutturato il database in due dimensioni, la query potrebbe codificare separatamente la riga e la colonna, e quindi hai una dimensione della query di 2sqrt(n), senza perdite. Potresti, tuttavia, pagare il prezzo in termini di costi di esecuzione.
Nota di PenPen== : con la protezione solare, la ramificazione non può dipendere dai parametri della funzione e i confronti con tali parametri non sono supportati. Nemmeno . Questo perché sotto il cofano, tutto ciò che fai è solo algebra con polinomi. A mano, puoi implementare la logica booleana, tuttavia. Jeremy Kun scrive che "Dato questo potere, puoi crittografare i tuoi dati bit per bit, esprimere il tuo programma come un circuito booleano (una XORporta è l'addizione e una ANDporta è la moltiplicazione) e simulare il circuito. Poiché XORe ANDformano una base universale per la logica booleana, puoi sempre scomporre un circuito in questo modo". Inoltre, con la ramificazione, potresti chiederti se le ramificazioni possono far trapelare informazioni. Sì . Possono. Quindi, lo scenario peggiore deve essere eseguito ogni volta. Tutte ifle ramificazioni devono essere eseguite e tutti i loop devono raggiungere i loro limiti superiori (ciò significa anche che i limiti devono essere noti staticamente)
La similarità del coseno è più difficile, poiché è definita con operazioni di divisione e norma, ma puoi normalizzare i vettori e poi fare semplici prodotti scalari all'interno del programma omomorfo. La preelaborazione è davvero il nome del gioco.
let norm = (vector1.iter().map(|x| x * x).sum::<f64>()).sqrt(); let normalized_vector: Vec<Signed> = vector1.iter().map(|x| Signed::from(x / norm1)).collect();
Non abbiamo modo di restituire semplicemente la corrispondenza migliore. Al massimo, possiamo restituire punteggi per ogni voce nel database, e il client può quindi decifrare i punteggi e trovare la corrispondenza migliore:
Per ogni query, la risposta del server contiene tutte le voci nel cluster. […] In Wally, utilizziamo la crittografia basata su lattice, in qualche modo omomorfica (SHE) per ridurre il sovraccarico della risposta. […] Il server calcola la funzione di distanza tra le informazioni crittografate e le voci del cluster in SHE e restituisce punteggi crittografati. Ciò riduce la risposta perché la dimensione dei punteggi crittografati è significativamente inferiore alle voci.
Implementazione di Apple: Wally
Nota di PenPen : questa sezione fornisce una panoramica di alto livello della ricerca privata scalabile con la carta Wally .
Sfortunatamente, l'implementazione della crittografia omomorfica da parte di Apple non è così pura come quella di cui abbiamo discusso sopra. Apple deve bilanciare sia la privacy che le prestazioni, che sono in contrasto tra loro (i programmi HE sono di molti ordini di grandezza più lenti dei loro equivalenti).
Prima di arrivare alla posizione di Apple su HE, facciamo un passo indietro. Un'implementazione non privata di questa ricerca apparirebbe così:
Durante l'inizializzazione, il server separa i suoi documenti in cluster di documenti simili. 2
Il client seleziona il cluster che meglio corrisponde alla query.
Il client invia il suo vettore al server.
Il server restituisce il punteggio di similarità per ciascun documento nel cluster.
Il cliente sceglie la proposta migliore.
Il client richiede i metadati per l'indice della voce migliore.
Presenta le seguenti falle di sicurezza:
Il server può leggere il vettore. Gli incorporamenti possono essere piuttosto rivelatori .
Il client rivela il cluster più vicino. Questo è un problema meno significativo, ma può essere utilizzato per dedurre la query. Ad esempio, una query con un embedding corrispondente a "cane" sarebbe probabilmente nel cluster "animale".
Per recuperare i metadati rilevanti, il client invia l'indice della voce più vicina al server. Anche questa sarebbe una perdita di privacy!
Nascondere l'incorporamento: ritorno alla crittografia omomorfica
Il vettore di incorporamento è di gran lunga l'informazione più sensibile attualmente trapelata.
La crittografia completamente omomorfica è troppo lenta per essere utilizzata da Apple, quindi usa una crittografia in parte omomorfica. SHE supporta sia la logica di addizione che quella di moltiplicazione, ma solo fino a una certa profondità. Ogni operazione matematica aumenta la profondità, poiché aumenta la quantità di rumore. Sono stati scelti parametri che bilanciano i budget di sicurezza e rumore. Ovviamente sarebbe l'ideale non lavorare con queste limitazioni. Sfortunatamente, FHE non è ancora abbastanza veloce.
Ecco le operazioni implementate, dove ctsignifica E(v)e vè un vettore:
Operazione SHERisultatoTempo (ms)Rumore (bit)
PtCtAdd(ct, v')E(v + v')
CtCtAdd(ct, ct')E(v + v')0,0040,5
PtCtMult(ct, v')E(v ⊙ v')0,0220
CtCtMult(ct, ct')E(v ⊙ v')2.526
CtRotate(ct, r) per r ∈[0, n/2)0,50,5
Nel pseudocodice sopra, la query è un vettore di molti valori criptati individualmente. Nell'implementazione di Apple, sembra che l'intero vettore sia inserito in un valore singolare:
Nel complesso, nella nostra implementazione, la query del client e la risposta del server sono un singolo testo cifrato RLWE di dimensioni rispettivamente di 226 kB e 53 kB (il primo con chiavi di valutazione)
Le ottimizzazioni apportate alla matematica della similarità sono descritte più avanti nel documento, ma non vi mentirò: mi sono sfuggite.
Nascondere il cluster più vicino
Delle tre fughe di notizie, il cluster è il meno significativo. Se l'incorporamento viene trapelato, viene rivelata una grande quantità di informazioni sul contenuto della foto. La razza del cane. Il colore dell'erba. L' atmosfera . Se viene trapelata la corrispondenza migliore, il server sa che probabilmente abbiamo una foto di un golden retriever. Se il cluster viene trapelato... beh, è ​​un animale di qualche tipo. Apple ha scelto di fare qualche sacrificio di privacy per il bene delle prestazioni, optando per una tecnica chiamata privacy differenziale.
Apple utilizza una rete di anonimizzazione ohttp gestita da una terza parte per inoltrare le richieste a Wally. Ciò significa che è impossibile sapere da quale dispositivo proviene una richiesta specifica: tutto si fonde insieme. Inoltre, vengono implementate le seguenti mitigazioni:
I client inviano una serie di query false, quindi scartano il risultato.
Le query sono raggruppate insieme per "epoca". In ogni epoca, un numero fisso di utenti effettua query e le loro query vengono elaborate alla fine dell'epoca. Le query vengono inoltre inviate in un ordine casuale in momenti casuali, sperabilmente eliminando i canali laterali di temporizzazione.
Jeff Johnson giustamente nota che questo schema è ancora in qualche modo imperfetto:
I due salti, le due aziende, stanno già agendo in partnership, quindi cosa c'è tecnicamente nell'impostazione del relè che impedisca alle due aziende di riunirsi, volontariamente o su ordine segreto di qualche governo, per confrontare le note, per così dire, e collegare i puntini?
Nascondere i metadati
I metadati sono la nostra terza perdita. La soluzione è davvero molto semplice. Invece di interrogare un cluster per i metadati in un indice, il cluster restituisce i metadati per tutti gli indici archiviati in quel cluster.
Nota di PenPen : Sembrano comunque molti dati che il client sta ricevendo. Non ti biasimo se ti chiedi se il server sia effettivamente necessario. Il fatto è che i vettori archiviati con cui vengono confrontati sono di gran lunga i maggiori utilizzatori di storage. Ogni vettore può facilmente essere di più kilobyte. Il documento discute un database di 35 milioni di voci divise in 8500 cluster.
Se i metadati sono troppo grandi, è possibile utilizzare le stesse tecniche descritte in questo articolo per il recupero di informazioni private anziché la ricerca privata del vicino più prossimo, su cui ci siamo concentrati fino a questo punto.
Discussione
Prima di proseguire, voglio chiarire che sono solo un hobbista, non un esperto in materia. Ho scoperto per la prima volta la crittografia omomorfica leggendo il recente articolo di Jeff Johnson " Apple Photos phones home on iOS 18 and macOS 15 " e i post successivi , e ciò che precede sono circa 10 ore di ricerca. Non contesto nulla di ciò che ha scritto.
Un modo naturale di intendere la privacy è come sinonimo di segretezza. Secondo questa interpretazione, se i miei dati sono privati, allora nessuno tranne me può leggere i miei dati […] Il diritto alla privacy può anche significare il diritto alla proprietà privata . […] Con Enhanced Visual Search, Apple sembra concentrarsi esclusivamente sulla comprensione della privacy come segretezza, ignorando la comprensione della privacy come proprietà.
Io stesso, dopo aver dedicato del tempo a mettere insieme un'enorme quantità di informazioni sparse, ho deciso che mi piace la funzionalità e la lascerò abilitata. Detto questo, la comprensione tecnica non sostituisce il consenso, che avrebbe dovuto essere richiesto da Apple insieme a una spiegazione appropriata.
Apple una volta disse che "Quello che succede sul tuo iPhone, resta sul tuo iPhone". Ovviamente, questo non è del tutto vero, e non lo era molto prima che Apple iniziasse a usare la crittografia omomorfica.
Ma quali informazioni stanno davvero lasciando il tuo dispositivo? Non c'è nessun elemento fidati di me, fratello. A meno che non venga trovato qualche problema nella matematica o nell'implementazione di Apple, per la prima volta il cloud è in grado di agire come una sorta di estensione del tuo dispositivo e dei tuoi dati, il che è una proposta immensamente eccitante. Apple è riuscita a categorizzare le foto senza sapere nulla di cosa contengono. Quanto è bello.
Se questo progetto fosse arrivato prima, prima della mercificazione dello smartphone e dei social media, avrei scritto qualcosa su una china scivolosa verso un uso sempre meno attento del cloud. Ma viviamo già in un mondo in cui tutti i nostri dati sono lassù, non nelle nostre mani. Questo progetto rappresenta un piccolo passo indietro nella giusta direzione, e non riesco a credere a quanto sia fantastico. Vorrei solo che Apple fosse più diretta.
Viviamo in tempi straordinari.
📝 Riferimenti e letture consigliate
Creazione di applicazioni con crittografia omomorfica
Ricerca privata scalabile con Wally
Crittografia omomorfica
Una panoramica tecnica di alto livello della crittografia completamente omomorfica
La tecnologia non sostituisce mai il consenso
0 notes
johnmargaretwrites · 1 month ago
Text
The Ultimate Guide to Secure AI Model Training: Best Practices and Tools
As artificial intelligence (AI) continues to revolutionize industries, ensuring the security of AI model training has become paramount. With the vast amounts of data involved in AI model training, the risks of data breaches, intellectual property theft, and adversarial attacks are real and growing. In this guide, we’ll explore the best practices for securing AI model training and the tools that can safeguard your models and data. Additionally, we'll highlight how OpenLedger, a leading decentralized platform, enhances security in AI training processes.
Why AI Model Security Matters
AI models are built by training algorithms on large datasets, often containing sensitive or proprietary information. If these models are compromised, they can be manipulated to perform malicious tasks, resulting in reputational damage, legal repercussions, and financial loss. AI model security is crucial in protecting:
Data Privacy: Protecting personal or confidential data used in training AI models.
Model Integrity: Ensuring that the AI models are not tampered with, either during training or after deployment.
Adversarial Attacks: Safeguarding against attempts to manipulate AI models through subtle inputs designed to exploit vulnerabilities.
Best Practices for Secure AI Model Training
Data Encryption Encryption is the cornerstone of data security. Ensuring that all data used for AI model training is encrypted, both in transit and at rest, helps protect it from unauthorized access. Use state-of-the-art encryption protocols such as AES-256 to encrypt sensitive data.
Data Anonymization For datasets containing personal information, anonymization techniques such as differential privacy can be used to remove personally identifiable information. This reduces the risk of data exposure while ensuring the utility of the data for training purposes.
Access Control Limiting access to the training data and models to authorized personnel is a fundamental security practice. Implement role-based access control (RBAC) and multi-factor authentication (MFA) to ensure that only the right people have access to sensitive resources.
Secure Model Storage Storing AI models securely is as important as securing the data used to train them. Use secure cloud storage or on-premise solutions with strong encryption to protect trained models from unauthorized tampering.
Regular Audits and Monitoring Conduct regular security audits and continuous monitoring to detect any unusual activity. This could include monitoring model performance and behavior for signs of adversarial manipulation or degradation.
Federated Learning Federated learning is a decentralized approach to training AI models where the training data never leaves its original location. Instead, model updates are aggregated centrally, which significantly enhances data privacy and security. This decentralized approach also reduces the risk of data breaches.
Tools for Securing AI Model Training
Homomorphic Encryption Homomorphic encryption allows computations to be performed on encrypted data without decrypting it. This technology ensures that data privacy is maintained while still enabling the AI model to learn from it.
Trusted Execution Environments (TEEs) TEEs are isolated environments where AI models can be trained securely, preventing unauthorized access to the model’s data and computations. TEEs ensure that both data and code remain protected throughout the training process.
AI Model Watermarking To protect intellectual property, AI model watermarking embeds unique identifiers into models, which helps detect and prove ownership in the event of theft or unauthorized use.
AI Security Frameworks AI security frameworks like TensorFlow Privacy and PySyft are designed to implement privacy-preserving techniques such as differential privacy, federated learning, and secure multi-party computation, which are vital for securing model training.
OpenLedger’s Role in Securing AI Model Training
OpenLedger, a decentralized platform that leverages blockchain technology, offers robust security advantages for AI model training. Here’s how OpenLedger enhances the security and integrity of the AI training process:
Immutable Data Logs OpenLedger’s blockchain-powered system provides an immutable ledger that logs every interaction and transaction during the AI model training process. This ensures that the training process is transparent and traceable, allowing teams to verify that no unauthorized changes or tampering have occurred.
Decentralized Access Control OpenLedger’s decentralized nature means that access to data and models is not controlled by a single entity. Instead, it uses cryptographic techniques to ensure that only authorized users can access training data, providing a higher level of trust and security.
Secure Data Sharing Through OpenLedger, organizations can share data securely across decentralized networks without exposing it to centralized risks. This is particularly valuable in collaborative AI model training, where different parties need to contribute data without compromising privacy or security.
Blockchain-Based Federated Learning OpenLedger supports federated learning, which allows AI models to be trained without moving sensitive data from its origin. Federated learning on OpenLedger ensures that the data remains securely stored and only updates are shared, reducing the risk of data breaches.
Auditability and Accountability Using OpenLedger’s platform, every AI model training session is traceable, providing an audit trail of all activities. In case of a security breach or suspicion of malicious activity, these logs can be invaluable in investigating and mitigating the impact.
Tokenized Incentives for Security OpenLedger’s use of tokenization allows incentivization for good security practices. For instance, participants in a decentralized AI model training process could earn tokens for contributing secure data or implementing best practices, creating a self-reinforcing cycle of security.
The Future of Secure AI Model Training
As AI continues to evolve, the need for robust security measures in model training will only intensify. Using decentralized platforms like OpenLedger provides a more secure, transparent, and efficient environment for training AI models while safeguarding sensitive data and intellectual property.
By adopting the best practices and tools mentioned above and leveraging the decentralized advantages of OpenLedger, businesses can build AI systems that are not only innovative but also secure, trustworthy, and resilient against evolving security threats. Embracing these practices ensures that AI model training can continue to advance without compromising security, ultimately helping organizations maintain a competitive edge while minimizing risk.
1 note · View note