인공지능 윤리원칙 준수를 지원하는 개인정보 보호 데이터 마이닝과 공정성 인지 추천 시스템 연구 Research on privacy-preserving data mining and fairness-aware recommendation system to support compliance with artificial intelligence ethics guidelines원문보기
인공지능 기술은 지난 10년간 급격한 속도로 발전하며 전 세계 산업체와 정부에게 전략적인 관심사로써 많은 주목을 받아왔다. 인공지능의 활용이 점차 많아지며, 인공지능 기술에 내재된 위험을 관리하는 것이 전 세계 정부의 과학기술정책 당국에 중요하게 논의되기 시작했다. 정부의 과학기술정책 당국의 최종적인 목표는 우리 사회를 구성하는 다양한 주체들의 사회적 합의에 기반을 둔 인공지능 ...
인공지능 기술은 지난 10년간 급격한 속도로 발전하며 전 세계 산업체와 정부에게 전략적인 관심사로써 많은 주목을 받아왔다. 인공지능의 활용이 점차 많아지며, 인공지능 기술에 내재된 위험을 관리하는 것이 전 세계 정부의 과학기술정책 당국에 중요하게 논의되기 시작했다. 정부의 과학기술정책 당국의 최종적인 목표는 우리 사회를 구성하는 다양한 주체들의 사회적 합의에 기반을 둔 인공지능 거버넌스의 구축이었다. 하지만, 현재 수준에서 논의하고 있는 인공지능 원칙에서 최종적인 목표인 인공지능 거버넌스로 향하는 경로에는 상당히 큰 시간적 격차가 존재했다. 최종적인 목표까지 도달하기 위해 걸리는 가늠하기 힘든 시간동안 정부의 과학기술정책 당국은 관련 산업의 기업에 인공지능 원칙에 대한 준수를 계속해서 강요할 수밖에 없었으며, 이는 기업에 큰 부담으로 작용할 수밖에 없었다. 본 연구는 이상의 시간적 격차에서 발생하는 기업의 부담으로부터 연구의 동기를 얻을 수 있었다. 본 연구는 이상의 연구동기를 바탕으로 인공지능 산업의 관련 기업에 인공지능 원칙의 준수를 지원하는 기술적 대안에 대한 고민이 아주 미흡하다는 문제제기에 주목했다. 본 연구가 주목하고 있는 인공지능 원칙은 이해관계자들로부터 최근 가장 큰 주목을 받고 있는 인공지능 윤리원칙을 관심주제로 설정했다. 지금까지 서로 다른 출처에서 발간된 대부분 인공지능 윤리원칙은 공통으로 (1)투명성, (2)공정성, (3)안전성, (4)책임성, 그리고 (5)개인정보 보호를 강조하고 있었다. 본 연구는 개인정보 보호와 공정성 문제에 한정하여 어떻게 하면 관련 산업의 기업에 인공지능 윤리원칙의 요구사항을 적용하는 데 도움이 될 만한 선험적 지식으로써 기술적 대안을 제안할 수 있는지를 연구 질의로 설정했다. 본 연구는 첫 번째 기술적 대안으로 개선된 개인정보 보호 데이터 마이닝 기술을 제안했다. 개인정보 보호 데이터 마이닝 기술은 개인정보를 보호하는 다른 방법에 비해서 다양한 분야에도 적용할 수 있으면서, 원 데이터의 광범위한 분포 특성과 통계량을 잘 보존할 수 있어 실용적인 방법으로 꼽히고 있었다. 본 연구의 개선된 개인정보 보호 데이터 마이닝 기술은 기존 연구와 달리 식별자 없이 통합된 데이터베이스를 생성하고 데이터의 유용성과 개인정보 노출 위험 보호성능 사이의 상보적 성능에서 절충된 모델의 도출을 연구 목표로 설정했다. 즉, 기존 연구는 진성 데이터에 섞을 가성 데이터를 진성 데이터로부터 재생산하여 이를 합성했다면, 본 연구가 제안하는 기술은 진성 데이터에 섞을 가성 데이터를 다른 출처의 데이터로부터 생산하여 이를 합성할 수 있었다. 본 연구는 이를 위해서 거리 계산을 수행하며 다른 출처로부터 합성 데이터 생성에 필요한 가성 데이터를 수집한다는 차별점이 있었다. 본 연구는 두 번째 기술적 대안으로 개선된 공정성 인지 추천 시스템을 위한 의사결정 경계의 조절 기능이 추가된 제로 샷 러닝 기술을 제안했다. 거리 학습을 바탕으로 하는 제로 샷 러닝 기술은 공정성 문제를 야기하는 통계적 편향을 개선하는 다른 방법에 비해서 새로운 데이터에도 활용할 수 있으며, 다양한 분야에도 적용할 수 있는 특징이 있었다. 본 연구는 이상의 특징에 기초해 해당 기술을 실용적인 기술로 판단할 수 있었다. 본 연구에서 제안하는 두 번째 기술적 대안의 가장 큰 특징인 의사결정 경계 기능은 첫 번째 기술적 대안에서 제안한 개인정보 보호 데이터 마이닝 기술의 거리계산에 따른 판단 기준 기능을 응용했다. 본 연구는 이상의 판단 기준을 추천 시스템의 의사결정 경계 조절 기능으로 활용하며 통계적 편향을 유발하는 콜드 스타트와 인기 편향을 동시에 개선할 수 있었다. 콜드 스타트는 사용자 차원의 불균형한 분포의 데이터 문제 의미했고, 인기 편향은 상품 차원에서 불균형한 분포의 데이터 문제 각각 의미했다. 즉, 기존 연구는 제로 샷 러닝 기술을 콜드 스타트의 개선에만 활용한다면, 본 연구가 제안하는 기술은 제로 샷 러닝 기술을 인기 편향의 개선에도 활용할 수 있었다. 본 연구는 이상의 차별점을 바탕으로 추천 예측 정확도와 추천 예측 다양성 사이의 상보적 성능에서 절충된 모델의 도출을 연구 목표로 설정했다. 본 연구에서 제안하고 있는 두 가지 기술적 대안은 모두 기대했던 연구 목표를 달성하는 것으로 나타났다. 본 연구가 제안한 개인정보 보호 데이터 마이닝 기술은 사용목적에 따라서 상대적으로 데이터 유틸리티가 높고, 개인정보 노출 위험의 보호 수준이 낮게 통합된 데이터베이스를 연구용으로 생성할 수 있었다. 그리고, 마케팅용 목적으로 상대적으로 데이터 유틸리티가 낮고, 개인정보 노출 위험의 보호 수준이 높게 통합된 데이터베이스를 생성할 수 있었다. 따라서, 본 연구가 제안하는 이상의 기술은 사용목적에 따라서 다양한 활용이 가능하다는 실무적 시사점을 가질 수 있었다. 마찬가지로, 본 연구가 제안한 공정성 인지 추천 시스템 기술은 기업으로 하여금 매출 증진을 위해 추천 예측 성능에 집중하고자 하는 경우와 신규 고객 탐색을 위해 추천 다양성 성능에 집중하고자 하는 사용목적에 따라서 다양한 활용이 가능하다는 실무적 시사점을 가질 수 있었다. 본 연구의 학문적 시사점은 다음과 같았다. 개인정보 보호 데이터 마이닝 기술에서 기존의 연구들은 단일 데이터베이스의 개인정보 보호를 위해서만 관련 기술을 기술적 대안으로 제안했다. 하지만, 본 연구가 제안하는 기술적 대안은 개인정보를 보호하면서도 식별자의 사용 없이 통합된 데이터베이스를 생성할 수 있다는 부분에서 기존의 기술적 한계를 개선하며 학문적 시사점을 가질 수 있었다. 한편, 공정성 인지 추천 시스템 기술에서는 기존의 제로 샷 러닝 기반의 추천 시스템에 의사결정 경계의 조절 기능을 추가하며 콜드 스타트와 인기 편향을 동시에 개선할 수 있도록 기존 추천 시스템 모델을 개선했다는 학문적 시사점을 가질 수 있었다. 마지막으로, 본 연구의 정책적 시사점은 다음과 같았다. 첫 번째 기술적 대안은 정책 입안자에게 기존의 개인정보보호법 개정안을 보완하며 고려할 수 있는 데이터 결합 방법에 대한 세부사항을 명확히 하는 데 필요한 기초자료를 제공할 수 있었다. 한편, 본 연구의 두 번째 기술적 대안은 정책 입안자에게 윤리적 설계를 요구하는 사전적 규율에 대한 제도를 기획하는 데 활용할 수 있는 기초자료를 제공하며 정책적 시사점을 가진다고 생각할 수 있었다.
인공지능 기술은 지난 10년간 급격한 속도로 발전하며 전 세계 산업체와 정부에게 전략적인 관심사로써 많은 주목을 받아왔다. 인공지능의 활용이 점차 많아지며, 인공지능 기술에 내재된 위험을 관리하는 것이 전 세계 정부의 과학기술정책 당국에 중요하게 논의되기 시작했다. 정부의 과학기술정책 당국의 최종적인 목표는 우리 사회를 구성하는 다양한 주체들의 사회적 합의에 기반을 둔 인공지능 거버넌스의 구축이었다. 하지만, 현재 수준에서 논의하고 있는 인공지능 원칙에서 최종적인 목표인 인공지능 거버넌스로 향하는 경로에는 상당히 큰 시간적 격차가 존재했다. 최종적인 목표까지 도달하기 위해 걸리는 가늠하기 힘든 시간동안 정부의 과학기술정책 당국은 관련 산업의 기업에 인공지능 원칙에 대한 준수를 계속해서 강요할 수밖에 없었으며, 이는 기업에 큰 부담으로 작용할 수밖에 없었다. 본 연구는 이상의 시간적 격차에서 발생하는 기업의 부담으로부터 연구의 동기를 얻을 수 있었다. 본 연구는 이상의 연구동기를 바탕으로 인공지능 산업의 관련 기업에 인공지능 원칙의 준수를 지원하는 기술적 대안에 대한 고민이 아주 미흡하다는 문제제기에 주목했다. 본 연구가 주목하고 있는 인공지능 원칙은 이해관계자들로부터 최근 가장 큰 주목을 받고 있는 인공지능 윤리원칙을 관심주제로 설정했다. 지금까지 서로 다른 출처에서 발간된 대부분 인공지능 윤리원칙은 공통으로 (1)투명성, (2)공정성, (3)안전성, (4)책임성, 그리고 (5)개인정보 보호를 강조하고 있었다. 본 연구는 개인정보 보호와 공정성 문제에 한정하여 어떻게 하면 관련 산업의 기업에 인공지능 윤리원칙의 요구사항을 적용하는 데 도움이 될 만한 선험적 지식으로써 기술적 대안을 제안할 수 있는지를 연구 질의로 설정했다. 본 연구는 첫 번째 기술적 대안으로 개선된 개인정보 보호 데이터 마이닝 기술을 제안했다. 개인정보 보호 데이터 마이닝 기술은 개인정보를 보호하는 다른 방법에 비해서 다양한 분야에도 적용할 수 있으면서, 원 데이터의 광범위한 분포 특성과 통계량을 잘 보존할 수 있어 실용적인 방법으로 꼽히고 있었다. 본 연구의 개선된 개인정보 보호 데이터 마이닝 기술은 기존 연구와 달리 식별자 없이 통합된 데이터베이스를 생성하고 데이터의 유용성과 개인정보 노출 위험 보호성능 사이의 상보적 성능에서 절충된 모델의 도출을 연구 목표로 설정했다. 즉, 기존 연구는 진성 데이터에 섞을 가성 데이터를 진성 데이터로부터 재생산하여 이를 합성했다면, 본 연구가 제안하는 기술은 진성 데이터에 섞을 가성 데이터를 다른 출처의 데이터로부터 생산하여 이를 합성할 수 있었다. 본 연구는 이를 위해서 거리 계산을 수행하며 다른 출처로부터 합성 데이터 생성에 필요한 가성 데이터를 수집한다는 차별점이 있었다. 본 연구는 두 번째 기술적 대안으로 개선된 공정성 인지 추천 시스템을 위한 의사결정 경계의 조절 기능이 추가된 제로 샷 러닝 기술을 제안했다. 거리 학습을 바탕으로 하는 제로 샷 러닝 기술은 공정성 문제를 야기하는 통계적 편향을 개선하는 다른 방법에 비해서 새로운 데이터에도 활용할 수 있으며, 다양한 분야에도 적용할 수 있는 특징이 있었다. 본 연구는 이상의 특징에 기초해 해당 기술을 실용적인 기술로 판단할 수 있었다. 본 연구에서 제안하는 두 번째 기술적 대안의 가장 큰 특징인 의사결정 경계 기능은 첫 번째 기술적 대안에서 제안한 개인정보 보호 데이터 마이닝 기술의 거리계산에 따른 판단 기준 기능을 응용했다. 본 연구는 이상의 판단 기준을 추천 시스템의 의사결정 경계 조절 기능으로 활용하며 통계적 편향을 유발하는 콜드 스타트와 인기 편향을 동시에 개선할 수 있었다. 콜드 스타트는 사용자 차원의 불균형한 분포의 데이터 문제 의미했고, 인기 편향은 상품 차원에서 불균형한 분포의 데이터 문제 각각 의미했다. 즉, 기존 연구는 제로 샷 러닝 기술을 콜드 스타트의 개선에만 활용한다면, 본 연구가 제안하는 기술은 제로 샷 러닝 기술을 인기 편향의 개선에도 활용할 수 있었다. 본 연구는 이상의 차별점을 바탕으로 추천 예측 정확도와 추천 예측 다양성 사이의 상보적 성능에서 절충된 모델의 도출을 연구 목표로 설정했다. 본 연구에서 제안하고 있는 두 가지 기술적 대안은 모두 기대했던 연구 목표를 달성하는 것으로 나타났다. 본 연구가 제안한 개인정보 보호 데이터 마이닝 기술은 사용목적에 따라서 상대적으로 데이터 유틸리티가 높고, 개인정보 노출 위험의 보호 수준이 낮게 통합된 데이터베이스를 연구용으로 생성할 수 있었다. 그리고, 마케팅용 목적으로 상대적으로 데이터 유틸리티가 낮고, 개인정보 노출 위험의 보호 수준이 높게 통합된 데이터베이스를 생성할 수 있었다. 따라서, 본 연구가 제안하는 이상의 기술은 사용목적에 따라서 다양한 활용이 가능하다는 실무적 시사점을 가질 수 있었다. 마찬가지로, 본 연구가 제안한 공정성 인지 추천 시스템 기술은 기업으로 하여금 매출 증진을 위해 추천 예측 성능에 집중하고자 하는 경우와 신규 고객 탐색을 위해 추천 다양성 성능에 집중하고자 하는 사용목적에 따라서 다양한 활용이 가능하다는 실무적 시사점을 가질 수 있었다. 본 연구의 학문적 시사점은 다음과 같았다. 개인정보 보호 데이터 마이닝 기술에서 기존의 연구들은 단일 데이터베이스의 개인정보 보호를 위해서만 관련 기술을 기술적 대안으로 제안했다. 하지만, 본 연구가 제안하는 기술적 대안은 개인정보를 보호하면서도 식별자의 사용 없이 통합된 데이터베이스를 생성할 수 있다는 부분에서 기존의 기술적 한계를 개선하며 학문적 시사점을 가질 수 있었다. 한편, 공정성 인지 추천 시스템 기술에서는 기존의 제로 샷 러닝 기반의 추천 시스템에 의사결정 경계의 조절 기능을 추가하며 콜드 스타트와 인기 편향을 동시에 개선할 수 있도록 기존 추천 시스템 모델을 개선했다는 학문적 시사점을 가질 수 있었다. 마지막으로, 본 연구의 정책적 시사점은 다음과 같았다. 첫 번째 기술적 대안은 정책 입안자에게 기존의 개인정보보호법 개정안을 보완하며 고려할 수 있는 데이터 결합 방법에 대한 세부사항을 명확히 하는 데 필요한 기초자료를 제공할 수 있었다. 한편, 본 연구의 두 번째 기술적 대안은 정책 입안자에게 윤리적 설계를 요구하는 사전적 규율에 대한 제도를 기획하는 데 활용할 수 있는 기초자료를 제공하며 정책적 시사점을 가진다고 생각할 수 있었다.
Artificial intelligence technology has developed at a rapid pace over the past decade, and it has received a lot of attention as a strategic concern for industries and governments around the world. As the use of artificial intelligence is increasing, managing the risks inherent in artificial intelli...
Artificial intelligence technology has developed at a rapid pace over the past decade, and it has received a lot of attention as a strategic concern for industries and governments around the world. As the use of artificial intelligence is increasing, managing the risks inherent in artificial intelligence technology is starting to be an important discussion with the science and technology policy authorities of governments around the world. The goal of the government's science and technology policy authorities was to establish artificial intelligence governance based on the social consensus of the various actors that make up our society. However, there was a fairly large time gap in the path from the AI principles being discussed at the current level to the goal, AI governance. During the unpredictable time it takes to reach the final goal, the government's science and technology policy authorities have had no choice but to continue to force companies in related industries to comply with the principles of artificial intelligence, which inevitably places a heavy burden on companies. In this study, the motivation for the study could be obtained from the burden of companies arising from the above time gap. Based on the above research motives, this study focused on raising the issue that concerns about technological alternatives to support the compliance of AI principles to related companies in the AI industry were insufficient. The artificial intelligence principle that this study is paying attention to has set the artificial intelligence ethical principle, which is receiving the most attention from stakeholders, as a topic of interest. Most of the AI ethics principles published by different sources so far have emphasized (1) transparency, (2) fairness, (3) safety, (4) accountability, and (5) privacy protection. This study is limited to personal information protection and fairness issues, and how to suggest technological alternatives as a priority knowledge that can help apply the requirements of the ethical principles of artificial intelligence to companies in related industries was set as a research question. This study proposed an improved privacy data mining technology as the first technical alternative. Compared to other methods of protecting personal information, data mining technology for personal information protection can be applied to various fields and is considered a practical method because it can preserve the wide distribution characteristics and statistics of the original data well. Unlike previous studies, the improved privacy data mining technology of this study creates an integrated database without identifiers and sets the research goal to derive a compromised model in the complementary performance between the usefulness of data and the protection performance of personal information exposure risk did. In other words, if the existing research reproduced the false data to be mixed with the true data from the original data and synthesized it, the technology proposed in this study was able to synthesize the false data to be mixed with the true data from the original data of other sources. For this purpose, this study performed distance calculation and had the distinction of collecting false data necessary to generate synthetic data from other sources. As a second technical alternative, this study proposed a zero-shot learning technique with an added decision-making boundary adjustment function for an improved fairness-aware recommendation system. The zero-shot learning technique based on distance learning has the characteristic that it can be used for new data and can be applied to various fields compared to other methods of improving statistical bias that cause fairness problems. Based on the above characteristics, this study was able to judge the technology as a practical technology. The decision boundary function, which is the biggest feature of the second technical alternative proposed in this study, applies the judgment criterion function according to the distance calculation of the personal information protection data mining technology proposed in the first technical alternative. This study was able to improve both the cold start and popularity bias that cause statistical bias by using the above criteria as a decision boundary control function of the recommendation system. The cold start meant a data problem with an unbalanced distribution at the user level, and the popularity bias meant a data problem with an unbalanced distribution at the product level, respectively. In other words, if the existing study used the zero-shot learning technology only to improve cold start, the technology proposed in this study could also use the zero-shot learning technology to improve the popularity bias. Based on the above differences, this study set the research goal to derive a compromised model of the complementary performance between recommendation prediction accuracy and recommendation prediction diversity. Both technical alternatives proposed in this study were found to achieve the expected research goals. The personal information protection data mining technology proposed in this study was able to create an integrated database for research with relatively high data utility and low protection level of personal information exposure risk depending on the purpose of use. And, for marketing purposes, it was possible to create an integrated database with relatively low data utility and a high level of protection against personal information exposure risk. Therefore, the above technology suggested in this study could have practical implications that various applications are possible depending on the purpose of use. Similarly, the fairness-aware recommendation system technology proposed in this study can be used in various ways depending on the purpose of use when companies want to focus on recommendation prediction performance to increase sales and focus on recommendation diversity performance for new customer discovery. The academic implications of this study were as follows. Existing studies on personal information protection data mining technology have proposed related technologies as technical alternatives only for the protection of personal information in a single database. However, the technical alternative proposed in this study could have academic implications by improving the existing technical limitations in that it can create an integrated database without the use of identifiers while protecting personal information. On the other hand, fairness-aware recommendation system technology could have academic implications that the existing recommendation system model is improved so that it can simultaneously improve cold start and popularity bias by adding a decision-making boundary control function to the existing zero-shot learning-based recommendation system. Finally, the policy implications of this study are as follows. The first technical alternative could provide policy makers with the necessary baseline data to clarify the details of data combining methods that could be considered, complementing existing amendments to the Privacy Act. On the other hand, the second technical alternative of this study could be considered to have policy implications by providing basic data that can be used to plan a system for prior discipline that requires ethical design for policy makers.
Artificial intelligence technology has developed at a rapid pace over the past decade, and it has received a lot of attention as a strategic concern for industries and governments around the world. As the use of artificial intelligence is increasing, managing the risks inherent in artificial intelligence technology is starting to be an important discussion with the science and technology policy authorities of governments around the world. The goal of the government's science and technology policy authorities was to establish artificial intelligence governance based on the social consensus of the various actors that make up our society. However, there was a fairly large time gap in the path from the AI principles being discussed at the current level to the goal, AI governance. During the unpredictable time it takes to reach the final goal, the government's science and technology policy authorities have had no choice but to continue to force companies in related industries to comply with the principles of artificial intelligence, which inevitably places a heavy burden on companies. In this study, the motivation for the study could be obtained from the burden of companies arising from the above time gap. Based on the above research motives, this study focused on raising the issue that concerns about technological alternatives to support the compliance of AI principles to related companies in the AI industry were insufficient. The artificial intelligence principle that this study is paying attention to has set the artificial intelligence ethical principle, which is receiving the most attention from stakeholders, as a topic of interest. Most of the AI ethics principles published by different sources so far have emphasized (1) transparency, (2) fairness, (3) safety, (4) accountability, and (5) privacy protection. This study is limited to personal information protection and fairness issues, and how to suggest technological alternatives as a priority knowledge that can help apply the requirements of the ethical principles of artificial intelligence to companies in related industries was set as a research question. This study proposed an improved privacy data mining technology as the first technical alternative. Compared to other methods of protecting personal information, data mining technology for personal information protection can be applied to various fields and is considered a practical method because it can preserve the wide distribution characteristics and statistics of the original data well. Unlike previous studies, the improved privacy data mining technology of this study creates an integrated database without identifiers and sets the research goal to derive a compromised model in the complementary performance between the usefulness of data and the protection performance of personal information exposure risk did. In other words, if the existing research reproduced the false data to be mixed with the true data from the original data and synthesized it, the technology proposed in this study was able to synthesize the false data to be mixed with the true data from the original data of other sources. For this purpose, this study performed distance calculation and had the distinction of collecting false data necessary to generate synthetic data from other sources. As a second technical alternative, this study proposed a zero-shot learning technique with an added decision-making boundary adjustment function for an improved fairness-aware recommendation system. The zero-shot learning technique based on distance learning has the characteristic that it can be used for new data and can be applied to various fields compared to other methods of improving statistical bias that cause fairness problems. Based on the above characteristics, this study was able to judge the technology as a practical technology. The decision boundary function, which is the biggest feature of the second technical alternative proposed in this study, applies the judgment criterion function according to the distance calculation of the personal information protection data mining technology proposed in the first technical alternative. This study was able to improve both the cold start and popularity bias that cause statistical bias by using the above criteria as a decision boundary control function of the recommendation system. The cold start meant a data problem with an unbalanced distribution at the user level, and the popularity bias meant a data problem with an unbalanced distribution at the product level, respectively. In other words, if the existing study used the zero-shot learning technology only to improve cold start, the technology proposed in this study could also use the zero-shot learning technology to improve the popularity bias. Based on the above differences, this study set the research goal to derive a compromised model of the complementary performance between recommendation prediction accuracy and recommendation prediction diversity. Both technical alternatives proposed in this study were found to achieve the expected research goals. The personal information protection data mining technology proposed in this study was able to create an integrated database for research with relatively high data utility and low protection level of personal information exposure risk depending on the purpose of use. And, for marketing purposes, it was possible to create an integrated database with relatively low data utility and a high level of protection against personal information exposure risk. Therefore, the above technology suggested in this study could have practical implications that various applications are possible depending on the purpose of use. Similarly, the fairness-aware recommendation system technology proposed in this study can be used in various ways depending on the purpose of use when companies want to focus on recommendation prediction performance to increase sales and focus on recommendation diversity performance for new customer discovery. The academic implications of this study were as follows. Existing studies on personal information protection data mining technology have proposed related technologies as technical alternatives only for the protection of personal information in a single database. However, the technical alternative proposed in this study could have academic implications by improving the existing technical limitations in that it can create an integrated database without the use of identifiers while protecting personal information. On the other hand, fairness-aware recommendation system technology could have academic implications that the existing recommendation system model is improved so that it can simultaneously improve cold start and popularity bias by adding a decision-making boundary control function to the existing zero-shot learning-based recommendation system. Finally, the policy implications of this study are as follows. The first technical alternative could provide policy makers with the necessary baseline data to clarify the details of data combining methods that could be considered, complementing existing amendments to the Privacy Act. On the other hand, the second technical alternative of this study could be considered to have policy implications by providing basic data that can be used to plan a system for prior discipline that requires ethical design for policy makers.
주제어
#인공지능의 윤리적 문제 개인정보 인공지능 위험 관리 공정성 개인정보 보호 데이터 마이닝 공정성 인지 추천 시스템
학위논문 정보
저자
이재성
학위수여기관
과학기술연합대학원대학교
학위구분
국내박사
학과
과학기술경영정책(ScienceandTechnologyManagementPolicy)
지도교수
전승표
발행연도
2022
총페이지
273
키워드
인공지능의 윤리적 문제 개인정보 인공지능 위험 관리 공정성 개인정보 보호 데이터 마이닝 공정성 인지 추천 시스템
※ AI-Helper는 부적절한 답변을 할 수 있습니다.