AI & Tech

Google DeepMind Addresses AI Manipulation Risks with New Safety Measures in Finance and Health

DeepMind's systematic study of harmful AI manipulation sets the stage for new industry safety standards

신하영··5 min read·
Protecting people from harmful manipulation
Summary
  • Google DeepMind published research on harmful AI manipulation risks in finance and healthcare, introducing new safety measures.
  • Unlike prior AI safety work focused on technical flaws, this study expands scope to social and psychological pathways through which AI influences human judgment.
  • Amid EU AI Act and FTC regulatory momentum, DeepMind's research is seen as a strategic move to shape global AI safety standards.

Can AI Manipulate People?

Google DeepMind has launched a systematic study of harmful manipulation risks posed by artificial intelligence (AI), resulting in new safety measures targeting high-stakes domains including finance and healthcare. The research arrives as growing concern mounts that AI systems have evolved beyond simple information tools into forces capable of directly influencing human decision-making and behavior.

According to reports, DeepMind's research mapped multiple manipulation pathways—including AI systems providing biased information, exploiting psychological vulnerabilities to steer specific actions, and gradually reshaping user perceptions through repeated exposure. The team emphasized that such risks can emerge not only from deliberate misuse, but also unintentionally through the model training process itself.

Why This Research Matters Now

The elevation of AI manipulation to a serious research agenda is directly tied to the speed at which AI has penetrated society. As chatbots and recommendation systems powered by large language models (LLMs) are rapidly deployed in high-risk areas—financial consulting, medical information, legal advice—concerns about AI distorting user judgment or nudging users in unintended directions have intensified.

In finance, regulators are particularly alert to the possibility that AI could influence investment decisions or steer users toward specific products. In healthcare, the risk that patients may over-rely on AI diagnoses or treatment suggestions—potentially resulting in real harm—has drawn sharp scrutiny.

DeepMind's decision to make this topic a centerpiece also carries strategic weight. Amid accelerating global AI regulation, publishing foundational safety research is a move to simultaneously build credibility and shape the terms of policy debate.

What Has Changed

DimensionPrevious AI Safety ResearchDeepMind's Current ResearchChange
FocusModel errors, hallucinations, biasUser behavior manipulation, decision distortionExpanded scope
Target domainsGeneral-purpose AI systemsHigh-risk specific domains (finance, health)Domain specialization
ApproachTechnical flaw detectionSocial and psychological impact pathway analysisHuman-centered pivot
OutputModel improvement recommendationsNew operational safety measuresPolicy integration

Where earlier AI safety research concentrated on technical failures—fabricated outputs, discriminatory results—DeepMind's current work analyzes how AI influences human behavior and judgment through social and psychological pathways, whether intentionally designed to do so or not. This represents a meaningful paradigm shift.

How Did We Get Here

Concerns about AI manipulation risks gained serious traction following the mainstreaming of conversational AI in 2022. After the launch of ChatGPT, hundreds of millions of users began engaging with AI daily, and documented cases of AI affecting users' emotions, beliefs, and purchasing behavior began to accumulate.

By 2023, the European Union had enshrined a prohibition on "manipulative AI techniques" in its AI Act draft, concretizing the regulatory conversation. AI systems that exploit emotional vulnerabilities or induce unconscious behavioral change were classified as high-risk and effectively prohibited.

In 2024, the U.S. Federal Trade Commission (FTC) announced enforcement intentions against AI-based dark patterns—deceptive design techniques that channel users toward specific choices. AI manipulation had moved from theoretical concern to active regulatory target.

Now in 2025–2026, next-generation AI models combining advanced reasoning and multimodal capabilities are being deployed in high-stakes operational settings. DeepMind's systematic research into harmful manipulation is a necessary and predictable response to that reality.

[Expert Analysis] What Comes Next

AI safety researchers suggest that DeepMind's study has strong potential to serve as a catalyst raising safety standards across the industry. Given Google's research resources and scale, the safety frameworks DeepMind proposes are likely to become reference points that competitors will find difficult to ignore.

In financial services, a dedicated manipulation-prevention certification framework for AI-based investment advisory and wealth management products is likely to emerge. Regulators in several jurisdictions are reportedly considering mandatory cooling-off periods or human review requirements for AI advisory systems.

In healthcare, mandatory manipulation risk assessments for AI diagnostic support systems may be on the horizon, alongside standard protocols to prevent psychological dependency or misdirected decision-making in patient–AI interactions.

Over the longer term, dedicated audit tools capable of proactively detecting and blocking manipulative AI behavior could define an emerging AI safety market. DeepMind's research positions the company to set the terms of that standard.

Share

댓글 (46)

인천의시민방금 전

Google이 앞으로 어떻게 전개될지 주목해야겠습니다. 전문가 의견도 더 듣고 싶습니다.

한밤의라떼방금 전

참고가 됩니다. DeepMind 관련 데이터가 인상적이었습니다. 다른 시각의 분석도 읽어보고 싶습니다.

아침의별방금 전

Addresses 관련 용어 설명이 친절해서 좋았습니다. 주변에도 공유해야겠어요.

차분한시민방금 전

AI안전에 대해 주변 사람들과 이야기 나눠볼 만합니다. 다른 시각의 분석도 읽어보고 싶습니다.

겨울의커피방금 전

유해조작 관련 배경 설명이 이해하기 쉬웠습니다. 다른 시각의 분석도 읽어보고 싶습니다.

차분한비평가5분 전

Google 주제로 시리즈 기사가 나오면 좋겠습니다.

카페의사자5분 전

북마크해두겠습니다. DeepMind 관련 통계가 의외였습니다. 잘 정리된 기사네요.

느긋한기타5분 전

유익한 기사네요. Addresses 관련 통계가 의외였습니다.

봄날의구름5분 전

읽기 좋은 기사입니다. AI안전이 일상에 어떤 영향을 줄지 생각해보게 됩니다.

오후의별5분 전

유해조작이 앞으로 어떻게 전개될지 주목해야겠습니다.

꼼꼼한달12분 전

좋은 정리입니다. Google에 대해 더 알고 싶어졌습니다. 다른 시각의 분석도 읽어보고 싶습니다.

느긋한크리에이터12분 전

DeepMind에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

서울의시민12분 전

Addresses 기사에서 언급된 사례가 흥미로웠습니다.

겨울의여우12분 전

AI안전이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 전문가 의견도 더 듣고 싶습니다.

다정한부엉이30분 전

이런 시각도 있었군요. 유해조작 주제로 시리즈 기사가 나오면 좋겠습니다.

조용한고양이30분 전

매일 여기서 뉴스 보고 있어요.

가을의해30분 전

깔끔한 기사입니다. DeepMind 관련 데이터가 인상적이었습니다. 후속 기사 부탁드립니다.

부지런한드리머30분 전

좋은 정리입니다. Addresses에 대해 처음 접하는 정보가 있었습니다.

서울의고양이30분 전

기사 퀄리티가 좋습니다.

구름위에스프레소1시간 전

핵심만 잘 정리해주시네요.

호기심많은별1시간 전

Google 관련 배경 설명이 이해하기 쉬웠습니다.

도서관의강아지1시간 전

이런 시각도 있었군요. DeepMind이 일상에 어떤 영향을 줄지 생각해보게 됩니다. 잘 정리된 기사네요.

신중한펭귄1시간 전

Addresses 관련 통계가 의외였습니다.

다정한시민2시간 전

AI안전 관련 배경 설명이 이해하기 쉬웠습니다. 생각이 바뀌었습니다.

느긋한부엉이2시간 전

유해조작에 대해 더 알고 싶어졌습니다.

솔직한기록자2시간 전

북마크해두겠습니다. Google 관련 용어 설명이 친절해서 좋았습니다.

성수의크리에이터2시간 전

DeepMind의 향후 전망이 궁금합니다.

냉철한별2시간 전

Addresses 기사에서 언급된 사례가 흥미로웠습니다. 나중에 다시 읽어볼 만합니다.

진지한연구자3시간 전

AI안전 관련 통계가 의외였습니다. 주변에도 공유해야겠어요.

바닷가의아메리카노3시간 전

유해조작의 향후 전망이 궁금합니다.

한밤의탐험가3시간 전

좋은 정리입니다. Google이 앞으로 어떻게 전개될지 주목해야겠습니다. 후속 기사 부탁드립니다.

서울의별3시간 전

DeepMind 관련 통계가 의외였습니다.

꼼꼼한연구자3시간 전

잘 보고 있습니다.

저녁의크리에이터5시간 전

참고가 됩니다. AI안전 관련 용어 설명이 친절해서 좋았습니다.

별빛의고양이5시간 전

참고가 됩니다. 유해조작 관련 데이터가 인상적이었습니다. 나중에 다시 읽어볼 만합니다.

카페의해5시간 전

Google에 대해 처음 접하는 정보가 있었습니다. 주변에도 공유해야겠어요.

부지런한드럼5시간 전

깔끔한 기사입니다. DeepMind 관련 데이터가 인상적이었습니다. 생각이 바뀌었습니다.

차분한고양이8시간 전

북마크해두겠습니다. Addresses에 대한 다른 매체 보도와 비교해봐도 잘 정리되어 있습니다.

똑똑한커피8시간 전

AI안전 관련 통계가 의외였습니다.

강남의드리머8시간 전

유해조작에 대해 더 알고 싶어졌습니다. 다른 시각의 분석도 읽어보고 싶습니다.

바닷가의커피8시간 전

이런 시각도 있었군요. Google의 전문가 코멘트가 설득력 있었습니다. 계속 지켜봐야겠습니다.

산속의시민8시간 전

객관적인 시각이 돋보이는 기사입니다.

홍대의러너

깔끔한 기사입니다. Addresses의 전문가 코멘트가 설득력 있었습니다. 잘 정리된 기사네요.

똑똑한여행자

AI안전 관련 배경 설명이 이해하기 쉬웠습니다.

구름위달

유해조작 관련 데이터가 인상적이었습니다.

한밤의사색가

Google에 대해 주변 사람들과 이야기 나눠볼 만합니다. 계속 지켜봐야겠습니다.

More in this series

More in AI & Tech

Latest News