OpenAI, ಚಾಟ್ಜಿಪಿಟಿಯ ಭದ್ರಿಕೆಯ ಸ್ಥಾಪನೆಯಾದ ಕಂಪನಿಯ, ಇದೀಗ ಕಷ್ಟದ ಸಮಯವನ್ನು ಅನುಭವಿಸುತ್ತಲೇ ಇದೆ, ಇದರಲ್ಲಿ ಆಂತರಿಕ ನಿರ್ವಹಣೆಯ ಸಮಸ್ಯೆಗಳು ಮತ್ತು ಅದರ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಸಂಬಂಧಿತ ಒತ್ತಾಯಗಳು ತೋರಿಸುತ್ತವೆ. ಕೆಲವು ಕಾಲವರೆಗೆ, OpenAI, IA ಕ್ಷೇತ್ರದಲ್ಲಿ ಭವಿಷ್ಯದ ಆಧಾರಗಳನ್ನು ಘೋಷಿಸುವ ಮೂಲಕ ಹರ್ಷಿಸುತ್ತಿದ್ದಂತಾಗಿತ್ತು. ಆದರೆ, ಈ ಆಂತರಿಕ ಸಮಸ್ಯೆಗಳ ಕಾರಣದಿಂದ ಎಲ್ಲಾ ಬದಲಾಯಿತೆಂದು ಕಾಣಿಸುತ್ತದೆ.
ಆರಂಭಿಸಲು, ಕಂಪನಿಯ ಸ್ಥಾಪಕರಲ್ಲಿ ಒಬ್ಬನು,ಸ್ಯಾನ್ ಆಲ್ಟ್ಮನ್, ಹಾರ್ಜೋಲ ಕೈಗೊಳ್ಳಲಾಗಿದ್ದು, ನಾಲ್ಕು ದಿನ ದೈನಂದಿನ ನಂತರ ಪುನಃ ನೇಮಿಸಲ್ಪಟ್ಟನು. ಈ ನಿಯಮಾವಳಿ ಸಮಯದಲ್ಲಿ, ಕಂಪನಿಯ 90% ವರೆಗೆ ಉದ್ಯೋಗಿಗಳು OpenAI ಬಿಟ್ಟು ಹೋಗುತ್ತೇವೆ ಎಂದು ಬೆದರುತ್ತಿದ್ದಾರೆ. ಈ ಸಿಬ್ಬಂದಿಯ ತಂಗಿಯ ಯುಕ್ತಗಳು ಇನ್ನೂ ತಿಳಿದಿಲ್ಲ, ಆದರೆ ಹೊಸ ವಿಷಯವು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಕ್ಷೇತ್ರದಲ್ಲಿ ಕಂಪನಿಯ ಆಂತರಿಕ ಆಹಾರ ಸಹಜತೆಗೆ ಸಹಾಯ ಮಾಡಬಹುದು.
ಪರಿಯೋಜನೆಯ Q* : ಬೃಹತ್ ಹೆಜ್ಜೆ, ಸಂಭವನೀಯ ಕೊರತೆಯ ಪರಿಣಾಮಗಳು
ಕಂಪನಿಯ ಹಲವರು ಸಂಶೋಧಕರ ಪ್ರಕಾರ, Q* ಯೋಜನೆಯು ಮನುಷ್ಯನಿಗೆ ತೀವ್ರ ಅಪಾಯವನ್ನು ಪ್ರತಿಷ್ಠಾಪಿಸುತ್ತವೆ. ಈ ಹೊಸ ಯೋಜನೆ IA ಕ್ಷೇತ್ರದಲ್ಲಿ ಗಣನೀಯ ಮುಂದುವರಿಯುವಿಕೆಯಾದರೂ, OpenAI, AGI (ಸাধಾರಣ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ) ದತ್ತಾದರೆಗೆ ಹಿಂಡಲು ಸಾಧ್ಯವಿದೆ. ಈ ಶಬ್ದದಲ್ಲಿ ಪರಿಚಯವಿಲ್ಲದವರಿಗಾಗಿ, ಇದು ಮನುಷ್ಯನ ಬುದ್ಧಿಮತ್ತೆಗೂ ಮೆರೆಯುವ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ರಚನೆಯ ಅತ್ಯುನ್ನತ ಹಂತವನ್ನು ಸೂಚಿಸುತ್ತದೆ.
ಒಂದು ಪತ್ರದಲ್ಲಿ ವಿಶೇಷವಾಗಿ ತಿಳಿಸಲಾಗಿರುವ ಮಾಹಿತಿಯ ಪ್ರಕಾರ [ಬಹುಶಃ ಆಂತರಿಕ ಸಂವಹನವಲ್ಲ], Q* ಯೋಜನೆಯು ಸಡ್ಡು ಸಮಸ್ಯೆಗಳನ್ನು ಪ್ರಯೋಗಿಸಲು ಶಕ್ತಿಯುತವಾಗಿರುತ್ತದೆ, ಇದು ಇಗೊಂಡ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಬರೆಯುವ ಕೃತ್ರಿಮರಿಗೆ ಸಂಪೂರ್ಣ ಅಸಾಧ್ಯವಾಗಿದೆ. ನ ರ ಸಭಾ ಮಂಡಲದ ಒಂದು ಮಹತ್ವದ ಭಾಗವು “ಕಾರ್ಯಕತೆಯ ಮಿತ್ರತ್ವ”ಚಲನೆಗೆ ಬೆಂಬಲ ಕೊಡುವುದಾಗಿ ತೀರ್ಗಳಿಸುತ್ತದೆ; ಇದು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಭೇಷಜ ಶಕ್ತಿ ಸಂಖ್ಯೆಯನ್ನು ತ್ವರಿತಗೊಳಿಸಲು ಎಚ್ಚರಿಕೆಯಿಂದ ಕೇಳುತ್ತವೆ – ಈ ಚಲನೆಗೆ ಸಂಪ್ರದಾಯಿತವಾದ ಸ್ಯಾನ್ ಆಲ್ಟ್ಮನ್ “ಅತಿಗೆ ಒಟ್ಟಾಗಿ ವರ್ತಿಸುತ್ತವೆ” ಎಂದು ಅವರು ಕರೆದಿದ್ದಾರೆ. ದೋಷವಿಲ್ಲದೆ, ಈ ಯೋಜನೆಯ ಕುರಿತು ತರಾತುರಿಯಷ್ಟು ಮಾಹಿತಿಗಳು ನಾವು ಹೊಂದಿಲ್ಲ, ಏಕೆಂದರೆ OpenAI ನ ಸಂಶೋಧಕರನಿಂದ ಬರೆದಿರುವ ಉದ್ಧಾರ ಪತ್ರವು ಮಾಧ್ಯಮಗಳೊಂದಿಗೆ ಹಂಚಾವಣೆ ಮಾಡಿಲ್ಲ.
ಗಣಿತದಲ್ಲಿ ಶಕ್ತಿಯುತ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ಅಪಾಯ
Q* ಯೋಜನೆಯ ಪ್ರಧಾನವಾಗಿ ಸಮಸ್ಯೆಗಳನ್ನು ಪರಿಹರಿಸುವ ಶಕ್ತಿಯು ನೈತಿಕ ಮತ್ತು ಭದ್ರತಾ ಅರ್ಥದಲ್ಲಿ ಜನೀತಿನೊಂದಿಗೆ ಸಮಸ್ಯೆಗಳನ್ನು ಉಂಟುಮಾಡುತ್ತದೆ ಅಂಥ ದಟ್ಟದರ ಮಟ್ಟಕೆ ಬಲಾಂವಿತಿಗಳ ಸಭಾಂಶ. ವಾಸ್ತವವಾಗಿ, ಒಂದು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ, ಮನುಷ್ಯನ ಬುದ್ಧಿಮತ್ತೆಗೂ ಮೀರಿಸಲು ಕಷ್ಟಪಟ್ಟರೆ, ಇದನ್ನು ಸರಿಯಾಗಿ ನಿಯಂತ್ರಣ ಮಾಡದಿದ್ದರೆ ಚಿಂತನೀಯ ಅಪಾಯಗಳನ್ನು ಉಂಟು ಮಾಡಬಹುದು.
ಈ ಸಮಸ್ಯೆ ಇದೀಗ ಇರುವ ಪರಿಸರದಲ್ಲಿ ಚಿಂತನೀಯವಾಗಿದೆ, ಅಲ್ಲಿ ಹೆಚ್ಚು ಶ್ರೇಷ್ಠ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಗಳ ಅಭಿವೃದ್ಧಿಗೆ ತೆಗೆದುಕೊಂಡಿರುವ ಸ್ಪರ್ಧೆಯು ನೈತಿಕ ಮತ್ತು ಭದ್ರತಾ ಅರ್ಥಗೊಂಡ ಅತ್ಯಂತ ಹೆಚ್ಚಾಗುತ್ತದೆ. ಕೆಲವು ತಜ್ಞರು, ದುಷ್ಟ ಕ್ರಿಯಕರ ಚಲನೆಯು ದಾರಿ ತೆಗೆದುಕೊಂಡರೆ, ಈ ಅಪಾಯಗಳು ಹೆಚ್ಚು ಶ್ರೇಣಿದಾರಿಯಾಗಿ ಮಾಡಲು ಸಾಧ್ಯ ಎಂದು ಸೂಚಿಸುತ್ತಾರೆ.
OpenAI ಗಾಗಿ ಯಾವ ಪರಿಣಾಮಗಳು?
ಆಂತರಿಕ ಕೆಡವಣೆಗಳು ಮತ್ತು Q* ಯೋಜನೆಯ ಕುರಿತು ಚಿಂತೆಗಳು, OpenAI ಯ ಭವಿಷ್ಯದ ಮೇಲೆ ಅಪಾರ ಪರಿಣಾಮವನ್ನು ಬೀರುವ ಸಾಧ್ಯತೆ ಇದೆ. ಈ ಕಂಪನಿಯ ಪ್ರತಿಷ್ಠೆ ತಮ್ಮ ನಿಯಮಗಳು ಮುಂದುವರಿಯುವುದು ಚಿಂತನೆಗೊಳಿಸುವ ಮೂಲಕ ಇಳಿಬಲ್ಲೆ ಎಂಬುದನ್ನು ನೋಡುತ್ತವೆ. ತಿಮ ಮಂಡಲವನ್ನು ಹೆಚ್ಚು ಉದ್ಯೋಗಿಗಳ ದೂರ ಹೋಗುವಾಗ ಇದ್ದಲ್ಲಿ, ಪ್ರಗತಿ ಮತ್ತು ಹೊಸ ಆಡಳಿತಕ್ಕೆ ತೀವ್ರವಾಗಿ ಹಾನಿಯಾಗುತ್ತದೆ.
ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಕ್ಷೇತ್ರದಲ್ಲಿ ನಿಯಂತ್ರಣೆ ಮತ್ತು ನೈತಿಕತೆಯನ್ನು ತಕ್ಷಣ ಮಾಡಲು ಅಗತ್ಯವಿದೆ
ಈ ಪರಿಸ್ಥಿತಿ ನೈತಿಕ ಮತ್ತು ಜವಾಬ್ದಾರಿ ಮೂಲಕಲೇ ಇರುವ ಪ್ರದೇಶದಲ್ಲಿ ವಿಚಾರವನ್ನು ಮಾಡಬೇಕು ಮಾದರಿಯ ಸಂಪಾದನೆ ಮತ್ತು ನಿರ್ವಹಣೆಗೆ, ಮಾನವತೆಗೆ ಸಂಬಂಧಿಸಿದ ಭೀದಿಯಾಗನವರಿಗೆ ಮುನ್ನೋಟ ಮಾಡಲು. ಹಲವಾರು ತಜ್ಞರು ಮುಂಚೆ ಸರಿಯಾದ ವಲಯಕ್ಕೆ ಯೋಜಿಸುವಿಕೆಗೆ ಕಟ್ಟೆ ವಿಸ್ತಾರವನ್ನು ಹೂಕಾಲಕ್ಕೊಯ್ಯಬೇಕೆಂದು ಕರೆದಿದ್ದಾರೆ; ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಆ ಅವಕಾಶವನ್ನು ಸಮಗ್ರವಾಗಿ ಉಪಯೋಗಿಸಲು ಪಕ್ಷೀಕರಣದ ಬೆಳವಣಿಗೆಗಳಿಗಾಗಿ ವಿರೋಧವಾಗಿ ಭಯಪಡುತ್ತವೆ.
ಸಾರ್ವಜನಿಕ ರೂಪದಲ್ಲಿ, OpenAI ಮತ್ತು Q* ಯೋಜನೆಯ ವ್ಯವಹಾರವು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಮತ್ತು ಇದರ ದೀರ್ಘಾವಧಿಯ ಪರಿಣಾಮಗಳಿಗೆ ಆಹಾರವನ್ನು ನಾಜೂಕಿನಲ್ಲಿ ಸೂತ್ರಿತವಾಗಿರುತ್ತವೆ. ಈಗ ಅಧಿಕ ಪ್ಲಾಟ್ ನಷ್ಟಕ್ಕೆ ನಿಲುಕಿಸದಂತೆ ಮತ್ತು ಪ್ರತಿ ವ್ಯಕ್ತಿಯ ಭದ್ರತೆಗೆ ಖಾತ್ರಿ ನೀಡಲು ವಿಭಾಗವನ್ನು ಸ್ಥಾಪಿಸಲು ಅತ್ಯಂತ ಮಹತ್ವವಾಗಿದೆ.