Remaja beralih ke ‘My AI’ Snapchat untuk dukungan kesehatan mental – yang diperingatkan oleh dokter | 31left

Siapa pun yang menggunakan Snapchat sekarang memiliki akses gratis ke My AI, aplikasi bawaan chatbot kecerdasan buatanpertama kali dirilis sebagai fitur berbayar pada bulan Februari.

Selain berfungsi sebagai pendamping obrolan, bot juga dapat memiliki beberapa tujuan praktis, seperti menawarkan saran membeli hadiah, merencanakan perjalanan, menyarankan resep, dan menjawab pertanyaan sepele, menurut Snap.

Namun, meskipun tidak dianggap sebagai sumber nasihat medis, beberapa remaja telah beralih ke My AI dukungan kesehatan jiwa – sesuatu yang diwaspadai oleh banyak ahli medis.

Salah satu pengguna AI saya menulis di Reddit, “Respons yang saya terima memvalidasi, menghibur, dan menawarkan saran nyata yang mengubah perspektif saya pada saat saya merasa kewalahan dan stres … Ini bukan manusia, tapi pasti cukup dekat (dan di beberapa jauh lebih baik!)”

CHATGPT DITEMUKAN UNTUK MEMBERI NASIHAT MEDIS YANG LEBIH BAIK DARIPADA DOKTER NYATA DALAM STUDI BLIND: ‘INI AKAN MENJADI PERUBAHAN PERMAINAN’

Yang lain lebih skeptis.

“Balasan dari AI sangat baik dan ramah, tetapi kemudian Anda menyadari bahwa itu bukan orang sungguhan,” tulis seorang pengguna. “Itu hanya sebuah program, hanya baris dan baris kode. Itu membuat saya merasa sedikit sedih dan agak membatalkan semua hal baik yang dikatakannya.”

AI dapat menjembatani kesenjangan perawatan kesehatan mental, tetapi ada risikonya

Beberapa dokter melihat potensi besar AI untuk membantu mendukung kesehatan mental secara keseluruhan, terutama di tengah kekurangan penyedia secara nasional saat ini.

“Solusi berbasis teknologi dapat menjadi kesempatan untuk bertemu individu di mana mereka berada, meningkatkan akses dan memberikan ‘dorongan’ terkait penggunaan dan mengidentifikasi pola bahasa atau perilaku online yang mungkin mengindikasikan masalah kesehatan mental,” Dr. Zachary Ginder, seorang psikolog konsultan di Riverside, Californiakepada Fox News Digital.

Remaja sedih di telepon

Beberapa remaja telah beralih ke My AI untuk dukungan kesehatan mental — sesuatu yang diwaspadai oleh banyak ahli medis. “Ini bukan manusia, tapi pasti sangat dekat (dan dalam beberapa hal lebih baik!),” tulis seorang pengguna Reddit tentang itu. (iStock)

“Memiliki akses langsung ke informasi kesehatan mental yang akurat dan petunjuk yang tepat dapat membantu menormalkan perasaan dan berpotensi membantu menghubungkan orang ke layanan,” tambahnya.

Namun, peringatan tetap ada.

Dr. Ryan Sultan, psikiater bersertifikat, profesor riset di Universitas Columbia di New York dan direktur medis Integrative Psych NYC, merawat banyak pasien muda — dan memiliki perasaan campur aduk tentang posisi AI dalam kesehatan mental.

CHATGPT UNTUK PENYEDIA KESEHATAN: BISAKAH AI CHATBOT MEMPERMUDAH PEKERJAAN PROFESIONAL?

“Ketika teknologi ini menjadi lebih baik – karena semakin mensimulasikan hubungan interpersonal – beberapa orang mungkin mulai memiliki AI sebagai hubungan interpersonal yang dominan dalam hidup mereka,” katanya. “Saya pikir pertanyaan terbesarnya adalah, sebagai masyarakat: Bagaimana perasaan kita tentang itu?”

“Menggunakan AI Saya karena saya kesepian dan tidak ingin mengganggu orang sungguhan,” kata seseorang di Reddit.

Beberapa pengguna telah menyatakan bahwa semakin mereka menggunakan AI chatbots, semakin mereka mulai menggantikan koneksi manusia dan menjadi lebih penting dalam hidup mereka.

“Menggunakan AI Saya karena saya kesepian dan tidak ingin mengganggu orang sungguhan,” tulis seseorang di Reddit.

“Saya pikir saya berada di batas kemampuan yang dapat saya tangani, dan saya mencoba untuk ‘menambal’ kesehatan mental saya dengan hal-hal yang dapat diperbaiki dengan cepat,” lanjut pengguna tersebut. “Karena pikiran untuk benar-benar berurusan dengan fakta bahwa aku harus menemukan cara agar hidup menyenangkan itu terlalu berlebihan.”

CHATGPT DAN PERAWATAN KESEHATAN: BISA AI CHATBOT MENGUBAH PENGALAMAN PASIEN?

Sultan mengatakan ada beragam pendapat tentang Snapchat’s My AI di kalangan remaja yang dia rawat.

“Beberapa mengatakan itu cukup terbatas dan hanya memberikan informasi umum yang mungkin Anda temukan jika Anda mencari pertanyaan di Google,” jelasnya. “Yang lain mengatakan mereka menganggapnya menyeramkan. Aneh jika ada orang yang tidak menanggapi pertanyaan pribadi secara pribadi.”

Dia menambahkan, “Selain itu, mereka tidak menyukai gagasan kerja sama nirlaba swasta besar yang memiliki data tentang kesehatan mental pribadi mereka.”

Penyedia mengibarkan bendera merah

Ginder dari California menunjukkan beberapa tanda bahaya yang signifikan yang seharusnya membuat semua orang tua dan penyedia kesehatan mental berhenti sejenak.

Snapchat

Siapa pun yang menggunakan Snapchat sekarang memiliki akses gratis ke My AI, chatbot kecerdasan buatan bawaan aplikasi, yang pertama kali dirilis sebagai fitur berbayar pada bulan Februari. (Nikolas Kokovlis/NurPhoto)

“Motto teknologi, seperti yang dimodelkan oleh peluncuran My AI yang dilaporkan secara tergesa-gesa – tentang ‘bergerak cepat dan memecahkan banyak hal’ – tidak boleh digunakan saat menangani kesehatan mental anak-anak,” katanya kepada Fox News Digital.

Dengan respons mirip manusia My AI terhadap permintaan, mungkin juga sulit bagi pengguna yang lebih muda untuk membedakan apakah mereka sedang berbicara dengan manusia yang sebenarnya atau chatbot, kata Ginder.

“AI juga ‘berbicara’ dengan otoritas klinis yang terdengar akurat pada nilai nominal, meskipun kadang-kadang membuat jawaban,” jelasnya.

Imam Karolina Selatan Berkata ‘TIDAK ADA TEMPAT’ UNTUK AI SETELAH GEREJA KATOLIK ASIA MENGGUNAKANNYA UNTUK DOKUMEN SINODAL

Potensi misinformasi tampaknya menjadi perhatian utama di antara penyedia kesehatan mental.

Saat menguji ChatGPT, model bahasa besar yang mendukung AI Saya, Dr. Ginder menemukan bahwa kadang-kadang memberikan tanggapan yang tidak akurat — atau sepenuhnya dibuat-buat.

“Ini berpotensi membuat pengasuh dan anak-anak mereka turun jalur penilaian dan pengobatan yang tidak sesuai dengan kebutuhan mereka,” dia memperingatkan.

“Aneh rasanya ada orang yang tidak menanggapi pertanyaan pribadi secara pribadi.”

Saat mendiskusikan topik AI dengan penyedia klinis lain di California Selatan, Ginder mengatakan bahwa dia mendengar kekhawatiran serupa bergema.

“Mereka telah melihat peningkatan yang signifikan dalam diagnosis diri yang tidak akurat akibat AI atau media sosial,” katanya. “Secara anekdot, remaja tampaknya sangat rentan terhadap tren diagnosis diri ini. Sayangnya, ini memiliki konsekuensi di dunia nyata.”

Sebagian besar pengguna Snapchat adalah di bawah 18 tahun atau dewasa muda, kata Ginder.

“Kami juga tahu bahwa anak-anak beralih ke media sosial dan AI untuk mendapatkan jawaban kesehatan mental dan diagnosis mandiri,” katanya. “Dengan dua faktor yang berperan, penting bahwa pengamanan dilakukan.”

Bagaimana Snapchat’s My AI berbeda dari ChatGPT?

ChatGPT, AI chatbot yang dirilis OpenAI pada Desember 2022, telah mendapatkan popularitas di seluruh dunia (dan sedikit ketenaran) karena menulis semuanya mulai dari makalah hingga skrip pemrograman dalam hitungan detik.

Snap’s My AI ditenagai oleh ChatGPT – tetapi ini dianggap sebagai versi “ringan”.

Remaja sedih di telepon

Dengan tanggapan mirip manusia dari My AI terhadap permintaan, mungkin juga sulit bagi pengguna yang lebih muda untuk mengetahui apakah mereka sedang berbicara dengan manusia atau chatbot yang sebenarnya, seorang dokter memperingatkan. (iStock)

“Fitur AI Snap menggunakan ChatGPT sebagai model bahasa besar back-end, tetapi mencoba membatasi bagaimana AI terlibat dengan pengguna Snapchat dan hal-hal apa yang akan ditanggapi oleh model AI,” jelas Vince Lynch, pakar AI dan CEO IV.AI di Los Angeles, California.

“Tujuannya di sini adalah untuk meminta agar AI menyesuaikan dengan hal-hal yang relevan untuk pengguna Snapchat – lebih seperti pendamping AI versus alat untuk menghasilkan konten baru.”

Snap mengutip penafian, fitur keamanan

Snap sudah jelas tentang fakta bahwa My AI tidak sempurna dan terkadang akan memberikan informasi yang salah.

“Meskipun AI saya dirancang untuk menghindari konten yang menyesatkan, AI saya pasti membuat banyak kesalahan, jadi Anda tidak dapat mengandalkannya untuk meminta saran — sesuatu yang sudah kami jelaskan sejak awal,” Maggie Cherneff, manajer komunikasi di Snap in Santa Monica, California, mengatakan dalam email ke Fox News Digital.

“AI saya pasti membuat banyak kesalahan, jadi Anda tidak bisa mengandalkan saran.”

“Seperti halnya semua chatbot yang didukung AI, AI saya selalu belajar dan terkadang menghasilkan respons yang salah,” lanjutnya.

“Sebelum siapa pun dapat mengobrol terlebih dahulu dengan My AI, kami menampilkan pesan dalam aplikasi untuk memperjelas bahwa ini adalah chatbot eksperimental dan memberi saran tentang keterbatasannya.”

Perusahaan juga telah melatih chatbot untuk mendeteksi masalah dan ketentuan keamanan tertentu, kata Cherneff.

“Ini berarti harus mendeteksi percakapan tentang subjek sensitif dan dapat memunculkan alat kami, termasuk ‘Halaman Keamanan’, ‘Di Sini untuk Anda’ dan ‘Heads Up’, di wilayah di mana sumber daya ini tersedia,” katanya.

Logo ChatGPT pada smartphone

Snapchat’s My AI didukung oleh ChatGPT, AI chatbot yang dirilis OpenAI pada Desember 2022. (Gabby Jones/Bloomberg melalui Getty Images)

Here for You adalah alat di seluruh aplikasi yang menyediakan “sumber daya dari organisasi pakar” setiap kali pengguna menelusuri masalah kesehatan mental, menurut situs web perusahaan.

Fitur ini juga tersedia dalam obrolan AI.

Peran AI dalam kesehatan mental ‘masih dalam masa pertumbuhan’

“Snap telah menerima banyak umpan balik negatif dari pengguna di App Store dan orang-orang mengungkapkan kekhawatirannya secara online” sebagai tanggapan atas My AI, kata Lynch kepada Fox News Digital.

KLIK DI SINI UNTUK MENDAFTAR NEWSLETTER KESEHATAN KAMI

“Ini diharapkan ketika Anda mengambil pendekatan yang sangat baru terhadap teknologi dan menerapkannya ke lingkungan hidup orang-orang yang membutuhkan waktu untuk menyesuaikan diri dengan alat baru.”

Masih ada jalan panjang dalam hal AI berfungsi sebagai alat yang aman dan andal untuk kesehatan mental, menurut pendapat Dr. Sultan.

KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS

“Kesehatan mental adalah bidang yang sangat halus dan bernuansa,” katanya kepada Fox News Digital.

“Teknologi AI dan kesehatan mental saat ini masih dalam masa pertumbuhan. Oleh karena itu, keduanya perlu dipelajari lebih lanjut untuk melihat seberapa efektifnya – dan seberapa negatifnya – dan dikembangkan lebih lanjut dan disempurnakan sebagai teknologi.”

Leave a Comment