Yapay zeka ve yüksek öğrenim hakkında heyecan verici bir dizi sohbete hazırız. Fakülteyle bunun hakkında konuşmak istiyoruz. Ethan Mollick’in “ortak istihbarat” fikri sınıfta pratik yapmak anlamına gelir. Müfredatı yeniden tasarlamak için mezunlarımızın işverenlerini harekete geçirmemiz gerekiyor. Hatta bir profesörün sınıfında yapay zeka kullanmasını istemesi ancak bazı öğrencilerin etik açıdan itiraz etmesi gibi zorlu konuşmalara bile hazırız.
Bu konuşmalar, yapay zeka yazarları ve düşünürlerinden oluşan etki sahibi sınıf arasında gerçekleşiyor, ancak öğretim üyeleriyle yapılan günlük çalışmalarda o kadar da değil. Geçtiğimiz yıl, eğer iyi şeylere ulaşmak istiyorsak ötesine geçmemiz gereken bir dizi konuşma ve müdahalenin olduğunu fark ettik.
Yüksek öğrenimde yapay zeka çağı, mitlerle ve modası geçmiş tavsiyelerle dolup taşmayacak kadar yeni görünüyor, ama işte buradayız. Popüler bloglar, yapay zeka yazılarını tespit etmeye yönelik eski hileleri vurguluyor ve öğretme ve öğrenme web siteleri, bir yıldan fazla süredir işe yaramayan taktikler öneriyor. Bunların bir kısmı affedilmeli; hiçbir teknolojinin bu kadar hızlı hareket ettiğini görmedik, dolayısıyla adaptasyon tek seferlik bir olaydan ziyade devam ediyor.
Modern sınıflarda yapay zekanın iyi ve kötü yanlarını anlamaya derinden yatırım yapan öğretim üyeleri olarak buradaki amacımız, yapay zeka ve öğretme ve öğrenme hakkındaki konuşmalarda varlığını sürdüren daha belirgin ve inatçı mitlerden bazılarını tartışmaktır.
Gördüğümde Biliyorum
Yapay zeka tarafından üretilen çalışmaları tespit etmeye yönelik kılavuzlar devam ediyor var olmak ve ol gönderildi kolej ve üniversite web sitelerinde. Teknoloji yayınları Ve gazeteciler bu konuda da tavsiyeler yayınlamaya devam edin. Casey Newton Platform oyunu Ve Sert Çatal yakın zamanda söylenen Yapay zeka yazma“Her zaman söyleyebilirim.”
Bu ampirik olarak doğru değildir. Çalışmak sonrasında çalışmak insanların yapay zeka yazılarını tespit etmede inanılmaz derecede kötü olduğunu doğruluyor: Bu daha çok bizim tespit edebildiğimiz bir durum insanlar Yapay zekayı kullanmada kötü olanlar. Bu kılavuzlarda yaygın olarak kullanılan bazı tavsiyeleri göz önünde bulundurun; örneğin, çok sayıda uzun çizgi veya madde işaretinin yapay zekanın işe karışma ihtimalini göstermesi. Öğrencilerin çok sayıda kısa çizgi kullandığını ve konuşma sırasında yapay zekayı kullandıklarını keşfedebilirsiniz. Ancak bu sadece seçim yanlılığıdır, çünkü bunu kullanan ancak tanımlamadığınız diğer öğrenciler hakkında hiçbir zaman bilgi sahibi olmazsınız. Yetkisiz yapay zeka kullanımının tespit edilmesi, nihayetinde eğitmenin önyargısını öğretimin başka bir yönüne sokan titreşimlere dayalı bir süreç haline gelir.
Yapay Zeka Kişisel Düşünme Yapamaz
Bu, popüler bir makalenin önemli bir bileşeniydi. Atlantik Yazar, dilbilimci John McWhorter’ın sonbahardan bu yana şunu öne sürmesi: “Ayrıca, sınıfta tartışılan materyallerden yararlanarak, kişisel bir bakış açısı istemek gibi, yapay zekanın yanıtlayabileceği soruları aşan sorular sormanın yollarını da buldum.” Kişisel düşünmeyi istemenin bir tür yapay zeka provası olduğuna dair bu inanç, dikkat çekici bir şekilde yaygınmerkezlerde bile öğretme ve öğrenme web siteleri.
Ancak bu sadece temel bir yönlendirmedir. Diyelim ki öğrencilerden günlük yaşamlarındaki sosyal eşitsizliklerin (ırk, cinsiyet, sınıf) nasıl şekillendiği hakkında eleştirel düşünmelerini isteyen kişisel bir düşünce ödevi atadınız. Öğrenci A, ödev talimatlarını bir Yüksek Lisans Programına kopyalayabilir ve Yüksek Lisans Programına “Bu ödevi benim için yap” yazabilir. Öğrenci B talimatları kopyalar ancak bu durumda öğrenci kendisi hakkında ırk ve etnik köken, gelir, yaş, ikamet yeri vb. gibi kişisel ayrıntıları ekler. Herkesin bunu kendi görevlerinde denemesini şiddetle tavsiye ediyoruz. Hatta var web siteleri Bu, kullanıcıların yapay zeka tarafından oluşturulan metinlerini “insanlaştırmasına” olanak tanır; bu, bunu yapmak için yönlendirmede iyi olmanıza bile gerek kalmayabileceği anlamına gelir.
Takvim Hilesi
ChatGPT’nin 2023 sürümleri yalnızca 2021 yılına kadar veriler üzerinde eğitildi. popüler taktik Başlangıçta sistemlerin erişemediği güncel olaylar hakkında sorular sormaktı. Bu bir şekilde bir yaklaşım olarak varlığını sürdürdü. Bu, ikimizin de fakülteyle çalışırken karşılaştığımız bir şey ve hatta bunun gibi bazı kılavuzlarda değiştirilmiş biçimde bile görünüyor. Montclair Eyalet Üniversitesi’nden Bu, atamaların “çok yeni olaylara” bağlanmasını öneriyor çünkü bu, “Yapay Zekanın sahip olmayacağı” bir bağlam.
Açıkçası, Grok ve Llama gibi bazı modeller gerçek zamanlı sosyal medya ağlarına tamamen entegre olduğundan ve diğer sağlayıcılar son dakika haberlerine dayalı çıktılar elde etmek için haber kuruluşlarıyla görüşmelerde bulunduğundan, bu tavsiye artık geçerli değil.
Truva Atı
2024’te bir öğretmen yerleştirme stratejisiyle viral oldu gizli talimatlar küçük, beyaz yazı tipi kullanan bir makale isteminde. Buradaki fikir, öğrencinin farkında olmadan ödev kılavuzunun tamamını kopyalayıp yapay zeka platformuna yapıştıracağı ve bu platformun da gizli istemi okuyacağıdır. Ortaya çıkan çıktı, bir filme veya derste ele alınmayan bir teorisyene yapılan referansların dahil edilmesi gibi eğitmenin talep ettiği bir şeyi içerecektir. Elbette bu, STEM istemleriyle de işe yarayacak ve hatalı kod parçalarına veya gereksiz bir kanıt bileşenine neden olacaktır.
En iyi ihtimalle bu, eğitmenlerin öğretmenlerden şakacılara geçtiği “yakaladım” öğretimidir. Oynamak istediğimiz rol bu mu? Amacınız öğrencileri iş üstünde yakalamaksa, iyi bir pedagoji noktasından yola çıkmıyorsunuz demektir. Bu aynı zamanda sınırlı raf ömrüne sahip, güvenilmez bir yaklaşımdır. Truva atı temel olarak, mühendislerin aktif olarak çözmeye çalıştığı LLM’ler için bilinen bir güvenlik sorunu olan hızlı enjeksiyon saldırısının bir çeşididir. Daha büyük risk ise eğer bir eğitmen buna bir taktik olarak güvenirse, bu durum “testi” geçen herkesin derhal temize çıkarılmasıdır. Hile işe yarasa bile, araçları kullanan tüm öğrencileri tespit etmiyorsunuz: Yalnızca bunları kullanmada kötü olan öğrencileri tespit ediyorsunuz.
Claude Bizim Sınıfımızda Değil
Bazı üniversiteler tavsiye etmek ödevleri sınıftaki tartışmalara yakından bağlamak. Diğer yaklaşımlardan farklı olarak bu yaklaşım iyi bir pedagojiye dayanmaktadır. Öğretime yönelik bu tür bir örgülü yaklaşım kesinlikle en iyi uygulamadır ancak büyük dil modellerinin kullanımını caydırmanın etkili bir yolu değildir.
Bir öğrenci, sınıf tartışmasındaki bağlamı ipucuna ekleyebilir ve ortaya çıkan çıktı bunu içerecektir. Yine de bunu öğrencilere nasıl iyi yönlendirme yapılacağını öğretmede en iyi uygulama olarak gördüğümüz sürece burada bir değer olduğunu düşünüyoruz.
Öğrencilerin bu araçları kullanmamasını sağlamaya çalışmak, kaybedilecek bir mücadele gibi görünüyor ve bunun savaşmaya değer olduğuna bile ikna olmadık. İşverenlerin yapay zeka okuryazarlığı ve araç kullanımı konusunda giderek daha fazla beklenti içinde olduğu rekabetçi bir iş piyasasına öğrencileri hazırlamak için bu araçlarla çalışmanın gerekliliğine değinmedik bile. Bu yazının amacı basitçe bir dizi yanlış kanıyı ve geçerliliğini yitirmiş tavsiyelerin ısrarını açıklığa kavuşturmaktı.
İnsanların, sahip oldukları etik sorulara ve araçları ne kadar kullandıklarına bağlı olarak yapay zeka konusunda farklı yerlerde olduklarının farkındayız. Sürdürülebilirlik, öğrenme kaybı, insan yaratıcılığı ve emek hakkında pek çok çözülmemiş soru var. Bu görüşmelerin devamını yapmaya hazırız. Meslektaşlarımızdan birine, iki yıl önce TikTok’tan öğrendikleri “tek düzgün numaranın” artık işe yaramadığı haberini vermek zorunda kaldığımız örneklerin daha az olmasını tercih ederiz.











