Posts

Showing posts from December, 2025

[EN] [Review] Yuval Noah Harari's "Nexus": Why Humans Must Maintain Control Over AI

  1. Can Humans Overcome AI-Driven Challenges as We Have in the Past? Yuval Noah Harari expresses uncertainty about whether humanity can overcome the problems caused by AI as we have done with past crises. He argues that it is irrational to assume we will survive next-generation challenges simply because we have survived previous ones. I share this view. The issues AI introduces are fundamentally different in nature and appear significantly more difficult to resolve. If AI creates a crisis, the sheer technical complexity may make it impossible to fix. This reinforces my belief that humans must retain ultimate sovereignty over AI. 2. Differences in AI Management Capabilities by Political System The book suggests that a society’s ability to manage AI-related issues depends on its political system. Authoritarian regimes use AI to maintain power, but the moment they become dependent on its capabilities, they risk losing control to the AI itself. Conversely, in democracies, where AI dev...

[KR] 유발 하라리의 넥서스 독후감 : 인간이 AI에 대해서 주도권을 가져야 하는 이유

  1.     AI 로 생긴 문제도 예전에 그래왔듯 인간이 잘 이겨낼 수 있을까 ? 유발 하라리님은 AI 로 생긴 문제가 이전에 그래왔듯 인간이 잘 이겨낼 수 있을지에 대해서 확실하지 않다는 입장이다 . 왜냐하면 이전에 그래왔듯 다음 세대에도 그럴 수 있다고 생각하는 것은 합리적이지 않다는 것이다 . 나 또한 그러한 주장에 대해서 동의하는 입장이다 . 왜냐하면 AI 가 야기한 문제가 양상 측면에서 이전과는 매우 다르고 해결하는 것도 무척 어려워보이기 때문이다 . AI 가 문제를 일으키게 된다면 기술적 어려움으로 해결하는 것 자체가 어려울 가능성이 있다 . 따라서 인간이 AI 에 대해서 주도권을 가져야 한다는 생각이 들게 되는 것이다 .   2.     정치체제에 따른 AI 관리능력 차이 이 책에서는 정치체제에 따라서 AI 가 일으키는 문제에 대해서 관리능력이 다르다고 보는 입장을 나타낸다 . 권위주의 정부에서는 정권의 유지를 위해서 AI 능력을 쓰기 때문에 정부가 AI 의 능력에 의존하는 순간 AI 가 오히려 주도권을 갖게 되는 단점이 있다고 본다 . 하지만 민주주의 정부에서는 AI 의 발전과 이용이 민간을 위주로 이루어지기 때문에 AI 가 문제를 일으켜도 다원화된 컨트롤타워로 인해서 그 해결을 하기 보다 쉽다는 입장이다 .   3.     AI 의 위험성 , 엄청난 발전속도 유발 하라리님은 호모데우스를 쓰신 이후에 AI 전문가로 불리게 된 후 여러 정책 논의 및 회의에 참석하셨는데 , 초기에는 AI 에 대해서 느긋한 입장이었던 반면 , 점점 최근으로 올수록 더욱 긴급한 분위기에서 회의가 진행되었다고 언급하셨다 . 나도 약 1 년간 AI 관련 뉴스 스크랩을 해오고 있는데 발전 속도가 충격적인 정도였다 . 이러한 상황은 인간이 AI 를 주도적으로 컨트롤 할 수 있는지에 대한 의구심이 들게 하며 어쩌면 왜 빠...

[KR] 내 작품이 AI 학습에? 창작물을 지키는 '옵트아웃(Opt-out)' 가이드

  1. AI 학습과 무단 크롤링의 현실 생성형 AI 기업들은 전 세계 웹사이트를 돌아다니며 데이터를 긁어모으는 ' 크롤러 (Crawler)' 를 사용합니다 . 이 과정에서 창작자의 개별적 동의 없이 공개된 저작물이 학습 데이터셋 (Dataset) 에 포함되는 일이 빈번하게 발생합니다 . 자신의 독특한 화풍이나 비공개 예정이었던 포트폴리오가 AI 에 의해 복제 가능한 형태로 학습되는 것에 대해 많은 창작자가 권리 침해를 호소하고 있습니다 .   2. 창작자를 지키는 방패 : ' 옵트아웃 (Opt-out)' 과 로봇 배제 표준 옵트아웃은 " 사전 동의 " 가 아닌 " 사후 거부 " 방식입니다 . 즉 , 기본적으로 학습에 동의한 것으로 간주되지만 , 창작자가 명시적으로 " 내 데이터는 빼달라 " 고 요청하면 학습에서 제외하는 절차를 의미합니다 . 이를 위한 기술적 차단은 본인의 웹사이트나 포트폴리오 사이트 루트 폴더에 robots.txt 파일을 설정하여 특정 AI 로봇의 접근을 막는 방식입니다 . 그 예로 User-agent: GPTBot, Disallow: / (OpenAI 의 접근을 차단하는 설정 ) 이 있습니다 .   3. 주요 플랫폼별 학습 거부 설정 방법 Adobe ( 어도비 ): 계정 설정의 ' 개인정보 보호 ' 메뉴에서 ' 콘텐츠 분석 (Content Analysis)' 항목을 비활성화해야 어도비 AI 학습에 내 작업물이 사용되는 것을 막을 수 있습니다 . OpenAI (DALL-E 등 ): 공식 홈페이지의 옵트아웃 양식을 제출하거나 , 개발자용 설정을 통해 자신의 웹 콘텐츠가 GPT-5 등 차세대 모델 학습에 쓰이지 않도록 요청할 수 있습니다 . Have I Been Trained?: 이 사이트를 활용하면 자신의 작품이 실제 AI 학습 데이터셋 ...

[KR] AI 폰트와 이미지, 무단 도용 리스크 피하는 법

  1. AI 생성 폰트와 이미지의 저작권 리스크 분석 폰트는 글자 모양 ( 디자인 ) 자체는 저작물로 보호받기 어렵지만 , 폰트 파일 ( 프로그램 소프트웨어 ) 은 법적 보호 대상입니다 . AI 툴이 기존 유료 폰트 파일을 추출하거나 무단 복제하여 제공할 경우 , 라이선스 위반으로 인한 법적 책임이 발생할 수 있습니다 . AI 가 생성한 이미지 속에 기존의 브랜드 로고 , 유명 캐릭터 , 혹은 특정 작가의 독보적인 창작적 표현이 의도치 않게 포함될 수 있습니다 . 이러한 요소들은 저작권뿐만 아니라 상표권이나 퍼블리시티권 침해로 이어질 위험이 큽니다 .   2. 무단 도용 판정의 핵심 : 실질적 유사성과 의거성 첫번째 실질적 유사성은 AI 출력물이 기존 저작물의 ' 창작적 표현 ' 을 상당 부분 복제했는지가 판단의 핵심입니다 . 단순한 스타일이나 아이디어 유사성은 괜찮지만 , 구체적인 구성이 비슷하면 침해로 간주됩니다 . 두번째 의거성입니다 . 의거성의 경우에는 폭넓게 인정됩니다 . AI 모델이 방대한 데이터를 학습하므로 , 학습 데이터셋에 원본 저작물이 포함되어 있었다면 원본을 보고 만들었다는 ' 의거성 ' 이 인정될 가능성이 높습니다 . 따라서 결과물이 우연히 비슷하더라도 침해 책임에서 자유롭기 어려울 수 있습니다 .   3. 안전한 창작을 위한 라이선스 체크리스트 AI 작업 시 ' 눈누 ' 나 'Google Fonts' 와 같이 상업적 이용 범위가 명확히 명시된 폰트를 별도로 사용하는 것이 가장 안전합니다 . 이때 반드시 ' 사용 범위 ( 인쇄 , 웹 , 로고 등 )' 가 본인의 용도와 맞는지 확인해야 합니다 . 이용하는 AI 서비스가 출력물에 대해 상업적 이용 권한을 명확히 부여하는지 , 그리고 특정 폰트나 라이브러리 사용에 제한이 없는지 약관을 통해 직접 확인해야 합니다 .   4. 리스크를 줄이는 실무적 대응 전략 생성된 AI 결과...

[KR] AI로 만든 그림, 저작권 등록 가능할까? 창작자가 꼭 알아야 할 법적 상식

  1.     인간의 창작물 원칙 : AI 는 저자가 될 수 없다 현행 저작권법상 저작물은 오직 ' 인간 ' 의 사상과 감정을 표현한 것이어야만 보호받을 수 있습니다 . 따라서 사람이 직접 붓을 들지 않고 AI 가 스스로 생성해낸 결과물은 원칙적으로 저작권의 보호 대상이 아닙니다 . 단순히 " 멋진 풍경화를 그려줘 " 와 같은 짧은 지시는 ' 창작 ' 이 아닌 ' 명령 ' 으로 간주되어 , 그 결과물에 대한 권리를 주장하기 어렵습니다 .   2.     미국 저작권청 (USCO) 의 결정으로 본 가이드라인 미드저니로 이미지를 생성해 만화책을 출판한 사례에서 , 법원은 이미지는 저작권을 거부하고 인간이 쓴 글과 전체적인 구성만 저작권을 인정했습니다 . AI 결과물을 그대로 쓰기보다는 , 인간이 직접 수정 , 보정 , 편집 하거나 여러 결과물을 독창적으로 배열 했을 때 비로소 저작권 보호 가능성이 생깁니다 .   3.     내꺼인 듯 내꺼아닌 상업적 이용의 비밀 저작권이 없다고 해서 돈을 벌 수 없는 것은 아닙니다 . 챗 GPT 나 미드저니 같은 서비스의 이용약관 에서 상업적 이용을 허용한다면 굿즈 판매나 광고 활용이 가능합니다 . 각 서비스의 요금제 ( 유료 / 무료 ) 에 따라 상업적 권한 부여 범위가 다르므로 , 수익화 전 반드시 해당 서비스의 약관을 확인해야 합니다 .   4.     창작자를 위한 리스크 관리 팁 (Safety First) 프롬프트를 발전시킨 과정이나 포토샵 등으로 재가공한 흔적을 기록 (Log) 으로 남겨두는 것이 추후 권리 증빙에 유리합니다 . AI 기술과 법률은 매우 빠르게 변화하므로 , 상업적 활동 전에는 반드시 최신 가이드라인을 확인해야 합니다 .   ⚠️ [ 필독 ] 법적 한계 고지 및 면책 조항 (Disclaimer) ...

Merry Christmas and Happy New Year :)

 Wishing a very Merry Christmas and a Happy New Year to everyone visiting my blog!

[EN] The Future of AI Governance: Shift from Reactive Compliance to Strategic Advantage in 2025 and Beyond

  I. Shift to 'Compliance by Design' (Preemptive Strategy) Concept: Moving away from performing legal reviews after a system is built, this strategy embeds legal and ethical guidelines directly into the planning and data collection stages . Practical Examples: * Applying 'automated de-identification technologies' before model training to protect privacy. Integrating 'data provenance tracking systems' at the design stage to prevent copyright disputes. Key Advantage: When regulators raise concerns, companies can drastically reduce legal liability by proving that they have systematized compliance from the ground up , rather than as an afterthought. II. Strategy for Global Regulatory Fragmentation The Fragmentation Phenomenon: Global regulations are diverging: the EU focuses on 'human rights and safety,' the U.S. on 'innovation and markets,' and Korea on...

[EN] AI and Copyright Infringement: Analyzing Legal Issues from Training Data to AI Outputs

  I. Copyright Issues at the Training Stage (Input Level) The Fair Use Debate: Regarding the unauthorized use of copyrighted works to train AI models, developers argue that such use constitutes 'Transformative Use' and thus qualifies as Fair Use . On the other hand, copyright holders oppose this, labeling it as 'unauthorized reproduction' that diminishes the value of original works. Legislative Safe Harbors (TDM): EU: Under the Copyright in the Digital Single Market (CDSM) Directive , Text and Data Mining (TDM) is permitted even for commercial purposes, provided the copyright holder has not opted out. Korea & Japan: Both countries have implemented or are discussing legislation that clarifies that utilizing copyrighted works for the purpose of 'information analysis' does not constitute infringement. II. Criteria for Judging Infringement in AI Outputs (Output Level) ...

[EN] Drafting AI Terms of Service: Essential Clauses and Liability Disclaimers for Enterprises

  I. Distinction Between General SaaS and AI Service Terms Addressing Uncertainty: Unlike traditional software, AI is a 'probabilistic' model where the same input can yield different results. Therefore, terms must explicitly state that the "accuracy or consistency of AI outputs is not guaranteed" to manage user expectations. Liability for User Inputs: A critical difference is the explicit assignment of liability regarding 'Input Data.' It must be clearly stated that legal responsibility for uploading copyrighted materials or personal information without authorization rests solely with the user. II. Defining Rights to AI-Generated Outputs and Training Data Ownership of Outputs: While the current global trend is to "grant ownership or unrestricted usage rights to the user," enterprises must secure a non-exclusive license to replicate or analyze such outputs for the purpose o...

[EN] Ensuring AI Availability and Resiliency: Legal Liabilities, SLA Strategies, and Global Compliance

  I. Definitions of AI Availability and Resiliency Availability: This refers to the state where AI services are accessible without delay when needed. Beyond mere server uptime, it means the Inference capabilities of the AI model must function normally. Resiliency: The ability of a system to quickly recover and normalize operations following a failure, such as server downtime, data corruption, or hacking. Complexity in AI: Unlike traditional software, AI relies on massive data pipelines and GPU resources. This creates a higher risk of a Single Point of Failure , where a bottleneck in one specific area can paralyze the entire service. II. SLA (Service Level Agreement) and Legal Liabilities Core Elements of SLA: Contracts typically include an "Uptime Guarantee" (e.g., 99.9%). If this standard is not met, the agreement often mandates providing 'Service Credits' as compensation. Liability M...

[EN] The AI Personhood Conundrum: Analyzing Liabilities, Rights, and the Impossibility of 'Electronic Personhood'

  I. The History and Definition of Legal Personhood 1. Historical Analogies and AI Application The most common historical analogy for non-human personhood is the Corporation . Corporations are allowed to assume separate legal liabilities independent of their founders or owners. Maritime law also sometimes assigns liability in rem (against the thing itself) to Ships . 2. Priority of Legal Personhood When applying legal personhood to AI, most legal scholars argue that Liabilities/Obligations must be granted priority over Rights . This priority stems from the need to prioritize victim compensation and risk allocation in cases of AI-induced harm. Furthermore, granting rights seems premature, as the logical process leading to AI conclusions lacks proven stability, and even entities like pets, dogs, and cats, which are closer to humans, have not been granted legal personhood. II. Autonomy, Ownership, and Property Rights 1. Ownership of AI Creations In the United St...

[EN] The Opportunity Cost: How Regulatory Divide Shapes AI Talent Flow and South Korea's Sovereign Ambition

  I. Introduction: Redefining Value in the AI Economy Having analyzed the legal pitfalls (Article #1) and societal risks (Article #2) of Generative AI, we turn to the economic opportunity . The AI revolution is not simply a risk to be mitigated; it is a global engine for wealth creation. Understanding the new labor market dynamics and the geopolitical forces shaping AI capital flow is crucial for nations seeking to lead the next technological decade. II. Section 1: The New Labor Market Paradigm: Competition vs. Elimination The immediate impact of Generative AI has been felt across white-collar sectors traditionally protected by specialized knowledge: Disruption of Routine Specialization: AI is demonstrably capable of replacing routine tasks in fields like translation, basic design, and entry-level accounting/bookkeeping . A Nuanced View on Job Loss: The narrative of mass job elimination is overly simplistic. AI has, in fact, lowered the barr...

[EN] Beyond Fair Use: The Rise of AI-Specific Licensing Models and the Threat of Data Oligopoly

  I. The Nature of Data Contracts: Future-Proofing the Data Pipeline 1. Contractual Intent: Access Over Compensation These high-profile deals between major media entities (such as The New York Times and The Associated Press) and AI developers (like OpenAI) are fundamentally structured not as mere compensation for past data usage , but as the sale of exclusive, forward-looking data access rights for model refinement and future development. Given the relatively modest fees compared to the true economic value generated by the AI models, it is difficult to view these payments as full restitution for historical training infringement. 2. Valuation as Investment The financial value exchanged in these agreements is better categorized as investment capital aimed at future model advancement . By securing exclusive access to high-quality, verified content, the AI developer is essentially future-proofing their data pipeline against competitors and further litigation, guaranteeing the...

[EN] The Enforcer's Hand: Understanding the FTC’s Mandate on AI Bias, Deception, and Consumer Protection

  I. The FTC’s Foundational Authority Over AI The US Federal Trade Commission (FTC) exercises broad regulatory authority over AI, even without specific new AI legislation. This authority is primarily rooted in Section 5 of the FTC Act , which prohibits "unfair or deceptive acts or practices (UDAPs)." 1. Core Regulatory Domains The FTC applies this broad mandate to two critical areas of AI deployment: Algorithmic Bias (Unfairness): Addressing situations where AI systems produce outcomes that unfairly disadvantage consumers based on protected characteristics (e.g., in housing or credit). Transparency and Deception (Deception): Punishing companies that make misleading claims about an AI system's performance, accuracy, or capabilities. 2. Data Governance Oversight The FTC also enforces adherence to existing consumer protection laws (such as the FCRA for credit reporting and HIPAA for health information), extending its oversight to the se...

[EN] Beyond the Buzzword: Deconstructing the 'Reasonable Security' Standard in US Data Privacy Laws (CCPA, HIPAA, & AI)

I. The Ambiguity and Flexibility of 'Reasonable Security' 1. The Legal Rationale for Ambiguity The reason major US privacy laws avoid defining "reasonable" security is to achieve technological neutrality . Advantage: This flexibility allows companies to adapt to new technological advancements and evolving cyber threats without immediate legislative updates. Disadvantage: For businesses, this lack of a clear checklist leads to increased legal uncertainty and a higher burden of proof during litigation. 2. Statutory Differences: CCPA vs. HIPAA The required level of "reasonableness" fundamentally changes based on the data type being protected. HIPAA (Protected Health Information): Focuses on PHI and imposes highly prescriptive requirements, mandating specific safeguards like robust encryption and detailed access controls. CCPA (Consumer Information): Employs a less prescriptive, risk-based approach , ...

[EN] Beyond the Algorithm: The Legal Implications of AI 'Black Boxes,' Explainability, and Due Process in the US

  I. Defining the Black Box Problem and the Legal Collision 1. The Conflict with Due Process and Anti-Discrimination Law The Black Box problem is defined as the state where complex AI systems (primarily deep learning models) reach conclusions through processes (weights and correlations) that are not intuitively understandable or explainable by humans. This opacity creates a conflict: Due Process: When AI is used to make decisions significantly impacting individual lives (e.g., sentencing, loan denial, benefit revocation), the lack of transparency infringes upon the right to know the basis of the decision . However , the claim that decision-making justification should be fully transparent is arguable, considering the opaque processes of human brain function during human judgment. Anti-Discrimination Law: The black-box model makes it difficult to externally audit whether the system utilizes protected variables (such as race or g...