Haruskah perguruan tinggi menggunakan AI dalam penerimaan?

Dengarkan artikel 10 menit Audio ini dihasilkan secara otomatis. Beri tahu kami jika Anda memiliki umpan balik.

Pada tahun 2013, departemen ilmu komputer di University of Texas di Austin mulai menggunakan algoritme pembelajaran mesin buatan sendiri untuk membantu fakultas membuat keputusan penerimaan lulusan. Tujuh tahun kemudian sistem itu ditinggalkan, menarik kritik bahwa seharusnya tidak digunakan.

Algoritme didasarkan pada keputusan penerimaan sebelumnya dan menghemat waktu anggota fakultas. Itu menggunakan hal-hal seperti kehadiran di universitas “elit” atau surat rekomendasi dengan kata “terbaik” di dalamnya sebagai prediksi penerimaan.

Universitas mengatakan sistem tidak pernah membuat keputusan penerimaan sendiri, karena setidaknya satu anggota fakultas akan memeriksa rekomendasi tersebut. Tetapi para pencela mengatakan bahwa itu menyandikan dan melegitimasi setiap bias yang ada dalam keputusan penerimaan.

Saat ini, kecerdasan buatan menjadi pusat perhatian. ChatGPT, sebuah chatbot AI yang menghasilkan dialog seperti manusia, telah menciptakan desas-desus yang signifikan dan memperbaharui percakapan tentang bagian mana dari kehidupan manusia dan tenaga kerja yang dapat dengan mudah diotomatisasi.

Terlepas dari kritik yang dilontarkan pada sistem seperti yang digunakan sebelumnya oleh UT Austin, beberapa universitas dan petugas penerimaan masih menuntut penggunaan AI untuk merampingkan proses penerimaan. Dan perusahaan sangat ingin membantu mereka.

“Ini meningkat secara drastis,” kata Abhinand Chincholi, CEO OneOrigin, sebuah perusahaan kecerdasan buatan. “Pengumuman GPT — jenis teknologi ChatGPT — sekarang membuat semua orang menginginkan AI.”

Tetapi perguruan tinggi yang tertarik dengan AI tidak selalu memiliki ide untuk apa mereka ingin menggunakannya, katanya.

Perusahaan Chincholi menawarkan produk bernama Sia, yang menyediakan pemrosesan transkrip perguruan tinggi yang cepat dengan mengekstraksi informasi seperti kursus dan kredit. Setelah dilatih, ia dapat menentukan kursus apa yang dapat diterima oleh siswa yang masuk atau pindahan, mendorong data ke sistem informasi institusi. Itu dapat menghemat waktu untuk petugas penerimaan, dan berpotensi memangkas biaya personel universitas, kata perusahaan itu.

Chincholi mengatakan perusahaan bekerja sama dengan 35 klien universitas tahun ini dan sedang dalam proses implementasi dengan delapan orang lainnya. Itu menerjunkan sekitar 60 permintaan informasi setiap bulan dari perguruan tinggi lain. Terlepas dari pertanyaan yang terus diajukan beberapa orang tentang penggunaan baru AI, Chincholi percaya bahwa pekerjaan Sia benar-benar berada di sisi yang benar dari masalah etika.

“Sia memberi petunjuk apakah akan melanjutkan pemohon atau tidak,” katanya. “Kami tidak akan pernah membiarkan AI membuat keputusan seperti itu karena sangat berbahaya. Anda sekarang bermain dengan karir siswa, kehidupan siswa.”

Perusahaan AI lain melangkah lebih jauh dalam apa yang ingin mereka tawarkan.

Student Select adalah perusahaan yang menawarkan algoritme untuk memprediksi keputusan penerimaan universitas.

Will Rose, chief technology officer di Student Select, mengatakan perusahaan biasanya memulai dengan melihat rubrik penerimaan universitas dan data penerimaan historisnya. Teknologinya kemudian memilah pelamar menjadi tiga tingkatan berdasarkan kemungkinan mereka diterima.

Pelamar di tingkat atas dapat disetujui oleh petugas penerimaan lebih cepat, katanya, dan mereka mendapatkan keputusan penerimaan lebih cepat. Siswa di tingkatan lain masih ditinjau oleh staf perguruan tinggi.

Student Select juga menawarkan perguruan tinggi yang digambarkan Rose sebagai wawasan tentang pelamar. Teknologi menganalisis esai dan bahkan merekam wawancara untuk menemukan bukti keterampilan berpikir kritis atau ciri kepribadian tertentu.

Misalnya, pelamar yang menggunakan kata “fleksibilitas” dalam menanggapi pertanyaan wawancara tertentu mungkin mengungkapkan “keterbukaan terhadap pengalaman”, salah satu ciri kepribadian yang diukur oleh Student Select.

“Perusahaan kami memulai lebih dari satu dekade yang lalu sebagai platform wawancara kerja digital sehingga kami sangat memahami cara menganalisis wawancara kerja dan memahami ciri-ciri dari wawancara kerja ini,” kata Rose. “Dan selama bertahun-tahun kami telah belajar bahwa kami dapat membuat jenis analisis yang sama di dunia pendidikan tinggi.”

Student Select memiliki kontrak dengan sekitar selusin universitas untuk menggunakan alatnya, kata Rose. Meskipun dia menolak menyebutkan nama mereka, dengan alasan kontrak, Teknologi Pemerintah melaporkan pada bulan April bahwa Rutgers University dan Rocky Mountain University termasuk di antara klien perusahaan tersebut. Tidak ada universitas yang menanggapi permintaan komentar.

Sebuah kotak hitam?

Tidak semua orang menganggap penggunaan teknologi ini oleh kantor penerimaan adalah ide yang bagus.

Julia Stoyanovich, seorang profesor ilmu komputer dan teknik di Universitas New York, menyarankan perguruan tinggi untuk menghindari alat AI yang mengklaim membuat prediksi tentang hasil sosial.

“Saya pikir penggunaan AI tidak sepadan, sungguh,” kata Stoyanovich, salah satu pendiri dan direktur Center for AI yang Bertanggung Jawab. “Tidak ada alasan bagi kami untuk percaya bahwa pola bicara mereka atau apakah mereka melihat ke kamera atau tidak ada hubungannya dengan seberapa baik mereka sebagai siswa.”

Bagian dari masalah dengan AI adalah ketidakjelasannya, kata Stoyanovich. Dalam kedokteran, dokter dapat memeriksa ulang pekerjaan AI saat menandai hal-hal seperti potensi kanker dalam citra medis. Tapi ada sedikit atau tidak ada pertanggungjawaban saat digunakan dalam penerimaan perguruan tinggi.

Petugas mungkin mengira perangkat lunak memilih untuk sifat tertentu, padahal sebenarnya untuk sesuatu yang palsu atau tidak relevan.

“Bahkan jika entah bagaimana kami yakin ada cara untuk melakukan ini, kami tidak dapat memeriksa apakah mesin ini berfungsi. Kami tidak tahu bagaimana seseorang akan melakukan yang tidak Anda akui, ”katanya.

Saat algoritme dilatih berdasarkan data penerimaan sebelumnya, algoritme mengulangi bias yang sudah ada. Tetapi mereka juga melangkah lebih jauh dengan menyetujui keputusan yang tidak seimbang itu, kata Stoyanovich.

Selain itu, kesalahan dalam algoritme dapat memengaruhi orang-orang dari kelompok yang terpinggirkan secara tidak proporsional. Sebagai contoh, Stoyanovich menunjuk ke metode Facebook untuk menentukan apakah nama itu sah, yang membawa perusahaan ke air panas pada tahun 2015 karena mengeluarkan pengguna Indian Amerika dari platform.

Terakhir, staf penerimaan mungkin tidak memiliki pelatihan untuk memahami cara kerja algoritme dan penentuan seperti apa yang aman untuk dibuat dari algoritme tersebut.

“Anda harus memiliki latar belakang setidaknya untuk mengatakan, ‘Saya pembuat keputusan di sini, dan saya akan memutuskan apakah akan menerima rekomendasi ini atau menentangnya,’” kata Stoyanovich.

Dengan pesatnya pertumbuhan sistem AI generatif seperti ChatGPT, beberapa peneliti mengkhawatirkan masa depan di mana pelamar menggunakan mesin untuk menulis esai yang akan dibaca dan dinilai oleh algoritme.

Memiliki esai yang dibaca oleh mesin akan memberikan “lebih banyak dorongan untuk membuat siswa membuatnya dengan mesin,” kata Les Perelman, mantan dekan di Massachusetts Institute for Technology yang telah mempelajari penilaian penulisan otomatis. “Itu tidak akan dapat mengidentifikasi apakah itu asli atau hanya dibuat oleh ChatGPT. Seluruh masalah evaluasi penulisan benar-benar telah diputarbalikkan.”

Berhati-hati

Benjamin Lira Luttges, seorang mahasiswa doktoral di departemen psikologi University of Pennsylvania yang melakukan penelitian tentang AI dalam penerimaan perguruan tinggi, mengatakan kekurangan manusia mendorong beberapa masalah yang berkaitan dengan teknologi.

“Sebagian alasan penerimaan rumit adalah karena tidak jelas bahwa sebagai masyarakat kita tahu persis apa yang ingin kita maksimalkan saat membuat keputusan penerimaan,” kata Lira melalui email. “Jika kita tidak hati-hati, kita mungkin membangun sistem AI yang memaksimalkan sesuatu yang tidak sesuai dengan apa yang ingin kita maksimalkan sebagai masyarakat.”

Penggunaan teknologi itu ada resikonya, katanya, tapi juga ada manfaatnya. Mesin, tidak seperti manusia, dapat mengambil keputusan tanpa “gangguan”, yang berarti mereka tidak dipengaruhi oleh hal-hal yang mungkin dilakukan oleh staf penerimaan, seperti suasana hati atau cuaca mereka.

“Kami tidak memiliki data yang benar-benar bagus tentang status quo,” kata Lira. “Mungkin ada potensi bias dalam algoritme dan mungkin ada hal-hal yang tidak kami sukai tentang algoritme tersebut, tetapi jika algoritme tersebut bekerja lebih baik daripada sistem manusia, sebaiknya mulai menerapkan algoritme secara progresif dalam penerimaan.”

“Jika kita tidak hati-hati, kita mungkin membangun sistem AI yang memaksimalkan sesuatu yang tidak sesuai dengan apa yang ingin kita maksimalkan sebagai masyarakat.”

Benjamin Lira Luttges

Mahasiswa doktoral, University of Pennsylvania

Rose, di Student Select, mengakui bahwa ada risiko menggunakan AI dalam penerimaan dan perekrutan. Amazon, katanya, menghapus algoritmenya sendiri untuk membantu perekrutan setelah menemukan alat tersebut didiskriminasikan terhadap wanita.

Tapi Student Select menghindari hasil negatif itu, katanya. Perusahaan memulai proses dengan audit bias atas hasil penerimaan klien sebelumnya dan secara teratur memeriksa teknologinya sendiri. Algoritmanya cukup transparan, kata Rose, dan dapat menjelaskan apa yang menjadi dasar keputusan mereka.

Analisis menghasilkan skor rata-rata yang sama di seluruh subkelompok, divalidasi oleh akademisi eksternal dan tidak sepenuhnya baru, kata Rose.

“Kami menggunakan peneliti baik internal maupun eksternal untuk mengembangkan alat ini, dan semua ahli ini ahli dalam seleksi,” ujarnya. “Model pembelajaran mesin kami telah dilatih pada kumpulan data yang mencakup jutaan catatan.”

Di luar pertanyaan etis yang datang dengan penggunaan AI dalam penerimaan, Stoyanovich mengatakan ada juga pertanyaan praktis.

Ketika terjadi kesalahan, siapa yang akan bertanggung jawab? Siswa mungkin ingin tahu mengapa mereka ditolak dan bagaimana kandidat dipilih.

“Saya akan sangat berhati-hati sebagai petugas penerimaan, sebagai direktur penerimaan di universitas atau di tempat lain, ketika saya memutuskan untuk menggunakan alat algoritmik,” katanya. “Saya akan sangat berhati-hati untuk memahami cara kerja alat ini, apa fungsinya, bagaimana alat itu divalidasi. Dan saya akan terus mengamati kinerjanya dari waktu ke waktu.”

Leave a Reply

Your email address will not be published. Required fields are marked *