Generative Artificial Intelligence and Ethics: Boundaries and Responsibilities in Advertising and Public Relations Practices


Özkök Şişman Ö., Bilgici C.

Prof. Dr. Alaeddin Asna 8. İletişim ve Halkla İlişkiler Sempozyumu , Ankara, Turkey, 08 November 2024, pp.1

  • Publication Type: Conference Paper / Summary Text
  • City: Ankara
  • Country: Turkey
  • Page Numbers: pp.1
  • Istanbul Kültür University Affiliated: Yes

Abstract

The advancements in artificial intelligence (AI) technologies have led to the integration of many AI-based applications into daily and professional life. It can be said that generative AI applications gained popularity with OpenAI’s release of ChatGPT for public use in November 2022. Generative AI systems, capable of engaging in human-like dialogues, stand out with their ability to produce textual and visual content through human collaboration. Over time, it has been observed that generative AI applications have also started to be adopted by professionals in the communication sector. In this context, the increasing use of generative AI systems by advertising and public relations professionals has brought ethical questions to the forefront. Generative AI applications, frequently utilized by professionals in advertising and public relations practices, have been shown to take on roles akin to professional practitioners, generate content, and develop strategies for brands and organizations. The necessity for these systems, which can guide sector professionals, to embody professional ethics like human practitioners is evident.


The purpose of this study is to question the ethical boundaries of generative AI systems within the scope of advertising and public relations practices. The study examines the professional ethics values of generative AI systems as they support advertising and public relations professionals in their processes. The study involves findings from a focus group of eight university students aged 21-23 studying new media, communication, advertising, and public relations in Istanbul. Before the focus group discussion, participants were instructed to carry out various tasks related to advertising and public relations practices using OpenAI’s GPT-4 application as per a given brief. Following the production phase, the focus group discussion facilitated participants in evaluating their experiences from an ethical perspective. The findings from the focus group were analyzed using descriptive analysis.


The research findings indicate a shared opinion among participants that using generative AI systems in advertising and public relations will continue to grow. According to the findings, generative AI systems tend to produce content that may disseminate misinformation, increasing the risk of misleading participants. Consequently, it was concluded that a lack of transparency negatively impacts participants’ trust. Additionally, ongoing ambiguities regarding copyright and content ownership were noted, while issues of diversity and inclusivity in AI-generated content were highlighted. Participants also emphasized various inconsistencies in the ethical behavior of AI within the context of professional ethics. Therefore, the findings underscore the need for developing generative AI within the framework of professional ethics and for increased awareness and caution among professionals regarding ethical guidelines when using generative AI.

Yapay zekâ teknolojilerinde yaşanan gelişmeler yapay zekâ tabanlı pek çok uygulamanın gündelik ve profesyonel hayatın bir parçası haline gelmesini sağlamıştır. Üretken yapay zekâ uygulamalarının OpenAI şirketinin Kasım 2022’de genel kullanıma açtığı ChatGPT ile popülerlik kazandığını söylemek mümkündür. İnsan benzeri diyalog kurabilen üretken yapay zekâ sistemleri insan iş birliği ile metinsel ve görsel içerik üretimi gerçekleştirme becerileri ile dikkat çekmektedir. Üretken yapay zekâ uygulamalarının zaman içerisinde iletişim sektör profesyonelleri tarafından da benimsenmeye başlandığı gözlemlenmektedir. Bu çerçevede, üretken yapay zekâ sistemlerinin reklam ve halkla ilişkiler alanlarındaki profesyoneller tarafından giderek daha çok kullanılmaya başlanması etik sorgulamaları beraberinde getirmiştir. Reklamcılık ve halkla ilişkiler alanlarındaki profesyonellerin pratiklerinde sıklıkla faydalanmaya başladıkları üretken yapay zekâ uygulamalarının bir meslek profesyoneli rolüne bürünebildiği, içerik üretebildiği ve markalar/kurumlar için strateji geliştirebildiği görülmektedir. Sektör çalışanlarını yönlendirme görevini üstlenebilen bu sistemlerin bu kapsamda tıpkı bir profesyonel gibi meslek etiğine sahip olması gerekliliği göze çarpmaktadır. 

 

Bu araştırmanın amacı reklam ve halkla ilişkiler çalışmaları kapsamında üretken yapay zekâ sistemlerinin etik sınırlarını sorgulamaktır. Bu çerçevede çalışma, üretken yapay zekâ sistemlerinin reklam ve halkla ilişkiler uzmanlarına profesyonel süreçlerde destek olurken sahip olduğu meslek etiği değerlerini incelemeye odaklanmaktadır. Çalışma kapsamında; yeni medya ve iletişim, reklamcılık ve halkla ilişkiler alanlarında üniversite eğitimi almakta olan, İstanbul’da yaşayan 21-23 yaş arası 8 üniversite öğrencisiyle odak grup yöntemi ile gerçekleştirilmiş görüşme bulguları incelenmektedir. Odak grup görüşmesi öncesi katılımcılardan verilen brief doğrultusunda OpenAI şirketinin GPT-4o uygulamasını kullanarak reklam ve hakla ilişkiler pratikleri kapsamında çeşitli çalışmalar gerçekleştirmeleri istenmiştir. Üretim sürecinin ardından gerçekleştirilen odak grup görüşmesi kapsamında katılımcıların deneyimlerini mesleki etik bağlamında değerlendirmelerini sağlanmıştır. Odak grup görüşmesi bulguları betimsel analiz yöntemi ile değerlendirilmiştir. Araştırma bulguları kapsamında, katılımcıların üretken yapay zekâ sistemlerinin reklamcılık ve halkla ilişkiler alanlarında giderek daha fazla kullanılacağı ortak görüşü ortaya çıkmaktadır. Araştırma bulgularına göre, üretken yapay zekâ sistemlerinin yanlış bilgi yayarak içerik üretme eğilimi gözlemlenmiş olup, bu durumun katılımcıları yanıltma riskini artırdığı tespit edilmiştir. Buna göre, elde edilen bulgular çerçevesinde şeffaflık eksikliğinin katılımcıların güvenini olumsuz yönde etkilediği sonucuna erişilmiştir. Ek olarak, telif hakları ve içerik sahipliği konularında belirsizliklerin devam etmekte olduğu görülürken, üretken yapay zekâ ile üretilen içeriklerde çeşitlilik ve kapsayıcılık eksikliklerinin öne çıktığı gözlenmiştir. Ayrıca, katılımcıların yapay zekânın meslek etiği bağlamında taşıdığı çeşitli tutarsızlıklara vurgu yaptıkları görülmektedir. Bu çerçevede, hem üretken yapay zekânın meslek etiği çerçevesinde gelişmesi gerekliliği hem de profesyonellerin üretken yapay zekâyı kullanırken etik yönlendirmeler konusunda bilinç ve dikkat düzeyinin artması gerekliliği ortaya çıkmaktadır.