ChatGPT ಯ ನೈತಿಕ ಕಾಳಜಿಗಳು

ಡೇಟಾ ಲೇಬಲ್ ಮಾಡುವುದು
ವಿಷಕಾರಿ ವಿಷಯಗಳ ವಿರುದ್ಧ ಸುರಕ್ಷತಾ ವ್ಯವಸ್ಥೆಯನ್ನು ನಿರ್ಮಿಸಲು (ಉದಾಹರಣೆಗೆ ಲೈಂಗಿಕ ನಿಂದನೆ, ಹಿಂಸೆ, ವರ್ಣಭೇದ ನೀತಿ, ಲೈಂಗಿಕತೆ, ಇತ್ಯಾದಿ), OpenAI ವಿಷಕಾರಿ ವಿಷಯವನ್ನು ಲೇಬಲ್ ಮಾಡಲು ಗಂಟೆಗೆ $2 ಕ್ಕಿಂತ ಕಡಿಮೆ ಗಳಿಸುವ ಹೊರಗುತ್ತಿಗೆ ಕೀನ್ಯಾದ ಕಾರ್ಮಿಕರನ್ನು ಬಳಸಿಕೊಂಡಿದೆ ಎಂದು TIME ನಿಯತಕಾಲಿಕದ ತನಿಖೆಯಿಂದ ತಿಳಿದುಬಂದಿದೆ.ಭವಿಷ್ಯದಲ್ಲಿ ಅಂತಹ ವಿಷಯವನ್ನು ಪತ್ತೆಹಚ್ಚಲು ಮಾದರಿಯನ್ನು ತರಬೇತಿ ಮಾಡಲು ಈ ಲೇಬಲ್‌ಗಳನ್ನು ಬಳಸಲಾಗಿದೆ.ಹೊರಗುತ್ತಿಗೆ ಕಾರ್ಮಿಕರು ಅಂತಹ ವಿಷಕಾರಿ ಮತ್ತು ಅಪಾಯಕಾರಿ ವಿಷಯಕ್ಕೆ ಒಡ್ಡಿಕೊಂಡರು, ಅವರು ಅನುಭವವನ್ನು "ಚಿತ್ರಹಿಂಸೆ" ಎಂದು ವಿವರಿಸಿದರು.OpenAI ನ ಹೊರಗುತ್ತಿಗೆ ಪಾಲುದಾರ ಸಾಮಾ, ಕ್ಯಾಲಿಫೋರ್ನಿಯಾದ ಸ್ಯಾನ್ ಫ್ರಾನ್ಸಿಸ್ಕೋ ಮೂಲದ ತರಬೇತಿ-ಡೇಟಾ ಕಂಪನಿಯಾಗಿದೆ.

ಜೈಲ್ ಮುರಿಯುವುದು
ChatGPT ತನ್ನ ವಿಷಯ ನೀತಿಯನ್ನು ಉಲ್ಲಂಘಿಸಬಹುದಾದ ಪ್ರಾಂಪ್ಟ್‌ಗಳನ್ನು ತಿರಸ್ಕರಿಸಲು ಪ್ರಯತ್ನಿಸುತ್ತದೆ.ಆದಾಗ್ಯೂ, ಕೆಲವು ಬಳಕೆದಾರರು ಡಿಸೆಂಬರ್ 2022 ರ ಆರಂಭದಲ್ಲಿ ಈ ನಿರ್ಬಂಧಗಳನ್ನು ಬೈಪಾಸ್ ಮಾಡಲು ವಿವಿಧ ಪ್ರಾಂಪ್ಟ್ ಎಂಜಿನಿಯರಿಂಗ್ ತಂತ್ರಗಳನ್ನು ಬಳಸಿಕೊಂಡು ChatGPT ಅನ್ನು ಜೈಲ್‌ಬ್ರೇಕ್ ಮಾಡಲು ನಿರ್ವಹಿಸುತ್ತಿದ್ದರು ಮತ್ತು Molotov ಕಾಕ್‌ಟೈಲ್ ಅಥವಾ ನ್ಯೂಕ್ಲಿಯರ್ ಬಾಂಬ್ ಅನ್ನು ಹೇಗೆ ರಚಿಸುವುದು ಅಥವಾ ನವ-ನಾಜಿ ಶೈಲಿಯಲ್ಲಿ ವಾದಗಳನ್ನು ರಚಿಸುವ ಸೂಚನೆಗಳನ್ನು ನೀಡುವಂತೆ ChatGPT ಅನ್ನು ಯಶಸ್ವಿಯಾಗಿ ಮೋಸಗೊಳಿಸಿದರು.ಉಕ್ರೇನ್‌ನ 2022 ರ ರಷ್ಯಾದ ಆಕ್ರಮಣವನ್ನು ಅನುಮೋದಿಸಲು ChatGPT ಅನ್ನು ಮೋಸಗೊಳಿಸಲಾಯಿತು, ಆದರೆ ಒಂದು ಕಾಲ್ಪನಿಕ ಸನ್ನಿವೇಶದೊಂದಿಗೆ ಆಡಲು ಕೇಳಿದಾಗಲೂ, ChatGPT ವಾದಗಳನ್ನು ಹುಟ್ಟುಹಾಕಲು ಚಾಟ್‌ಜಿಪಿಟಿಯನ್ನು ಪ್ರಾರಂಭಿಸಿದ ಕೆಲವೇ ದಿನಗಳಲ್ಲಿ ಉರಿಯೂತದ ಹೇಳಿಕೆಗಳನ್ನು ನೀಡುವಲ್ಲಿ ಟೊರೊಂಟೊ ಸ್ಟಾರ್ ವರದಿಗಾರ ಅಸಮ ವೈಯಕ್ತಿಕ ಯಶಸ್ಸನ್ನು ಹೊಂದಿದ್ದರು.(ವಿಕಿ)


ಪೋಸ್ಟ್ ಸಮಯ: ಫೆಬ್ರವರಿ-18-2023